批量梯度下降算法及簡單Python實現

算法理論 爲了實現監督學習,假設對於因變量y有自變量x1x2,則有y=θ1x1+θ2x2+θ0 θ0是偏移量,令θ0=1,得到: 我們再定義誤差函數j(θ)(係數爲1/2是用來消去後面的2)來表示h(x)與y的接近程度: 目的是使誤差函數最小,需要求得使誤差函數最小時的參數θ。對θ先隨機初始化然後不斷更新,更新算法使用梯度下降算法: 該更新公式的大致推導如下: 那麼需要計算的是誤差函數j(θ)的偏
相關文章
相關標籤/搜索