隨機梯度下降,隨機的含義

梯度下降法中,有3中不同的策略。分別是: (full) batch gradient descent = 批梯度下降,是指所有數據一次性全部餵給模型,然後用梯度下降法更新參數。這種策略的問題就是一次迭代的時間太長了,難得等。(是否存在隨機的問題,也就是數據是否會打亂餵給模型,我還不清楚) mini-batch gradient descent = 小批梯度下降,是指把訓練數據分成很多了mini-b
相關文章
相關標籤/搜索