機器學習實戰之線性迴歸

線性迴歸原理與推導 如圖所示,這時一組二維的數據,我們先想想如何通過一條直線較好的擬合這些散點了?直白的說:儘量讓擬合的直線穿過這些散點(這些點離擬合直線很近)。 目標函數 要使這些點離擬合直線很近,我們需要用數學公式來表示。首先,我們要求的直線公式爲:Y = XTw。我們這裏要求的就是這個w向量(類似於logistic迴歸)。誤差最小,也就是預測值y和真實值的y的差值小,我們這裏採用平方誤差:
相關文章
相關標籤/搜索