機器學習(第十週)--適用大數據的算法

1、隨機梯度下降 批量梯度下降在運用到樣本數據較多的情況下,計算量會非常的大,更適合選用隨機梯度下降方式 批量梯度下降,在計算θ值過程中每次迭代要讀入全體樣本數據,每次計算m個加和項迭代 隨機梯度下降,只考慮一個樣本的計算結果,每次迭代只計算一個樣本的θ迭代 隨機梯度下降 兩種算法迭代方式是不同的 批量梯度下降,每次迭代就會逐漸收斂,最終收斂到中心點 隨機梯度下降,隨機梯度下降收斂過程跟樣本選取有
相關文章
相關標籤/搜索