【deeplearning.ai筆記第二課】2.1 隨機梯度下降,批量梯度下降和小批量梯度下降

批量梯度下降 (batch gradient descent) 每次梯度更新時,計算所有m個樣本的梯度做梯度下降 小批量梯度下降 (mini-batch gradient descent) 每次梯度更新,計算n (n<m) 個樣本的梯度做梯度下降 隨機梯度下降(stochastic gradient descent) 每次梯度更新,計算1個樣本的梯度做梯度下降 大多數用於深度學習的算法會採用min
相關文章
相關標籤/搜索