【機器學習--學習筆記】大規模機器學習

此處對比批量梯度下降、隨機梯度下降、小批量梯度下降算法的優缺點 算法 批量梯度下降(Batch Gradient Descent, BGD) 隨機梯度下降(Stochastic Gradient Descent, SGD) 代價函數 梯度下降算法 比較 每一次更新參數θ時,都需要計算所有m個訓練樣本的差平方項求和,然後更新一次θ值,當m很大時,每一次迭代計算量大,且只能更新優化一小步 每一次更新參
相關文章
相關標籤/搜索