機器學習入門(六):線性迴歸——梯度下降法求解目標函數

y = a + bx 的目標函數 上一篇文章,我們解釋了線性,本文我們回到求解線性迴歸目標函數的問題上。前面已知,線性迴歸的目標函數爲: J(a,b)=12m∑mi=1(a+bx(i)−y(i))2 J(a,b) 是一個二元函數。我們要求的是:兩個參數 a 和 b 的值。要滿足的條件是:a 和 b 取這個值的時候,J(a,b) 的值達到最小。 我們現在就來用之前講過的算法:梯度下降法,來對其進行求
相關文章
相關標籤/搜索