梯度降低法的不一樣形式——隨機梯度降低法和小批量梯度降低法

前文介紹了梯度降低法,其每次迭代均需使用所有的樣本,所以計算量巨大。就此,提出了基於單個樣本的隨機梯度降低法(Stochastic gradient descent,SGD)和基於部分樣本的小批量梯度降低法(Mini-Batch gradient descent,Mini-batch gradient descent)。html 1、隨機梯度降低法 隨機梯度降低法,即在每次梯度更新過程當中僅使用某
相關文章
相關標籤/搜索