機器學習之GD、SGD

機器學習之GD、SGD 1. 梯度下降法 GD 2. 隨機梯度下降法 SGD   1. 梯度下降法 GD   2. 隨機梯度下降法 SGD SGD和之前的GD區別在於,GD是對函數進行求導,對整個訓練集每個樣本來計算,但是SGD則是對一個或者多個樣本來操作,例如有10000個樣本,但每次只對100個或1000個來計算梯度,從而更新參數; SGD存在一個弊端:因爲求得的梯度不是嚴格的梯度,可能會使得
相關文章
相關標籤/搜索