從Gradient Descent 到 Stochastic Gradient Descent(SGD)

​ 目標是調節每一個 θ \theta θ讓 L ( θ ) L(\theta) L(θ)最小. Gradient Descent 每次調整 θ \theta θ時會加上(減去)一個最大的變化率(梯度)乘以一個變換量(學習率),使得 θ \theta θ會盡快地進入一個平滑地帶,也就是我們想要得到的那個極值. 可是如果n爲全樣本數的話,像阿里數據庫裏面有上億的樣本數據,最後的計算可能是一個無法完成
相關文章
相關標籤/搜索