機器學習:梯度下降法的三種形式BGD、SGD以及MBGD

在應用機器學習算法時,我們通常採用梯度下降法來對採用的算法進行訓練。其實,常用的梯度下降法還具體包含有三種不同的形式,它們也各自有着不同的優缺點。 下面我們以線性迴歸算法來對三種梯度下降法進行比較。 一般線性迴歸函數的假設函數爲: hθ=∑j=0nθjxj 對應的能量函數(損失函數)形式爲: Jtrain(θ)=12m∑i=1m(hθ(x(i))−y(i))2 下圖爲一個二維參數( θ0 和 θ1
相關文章
相關標籤/搜索