詳解批量梯度下降法(BGD)、隨機梯度下降法(SGD)和小批量梯度下降法(MBGD)

在應用機器學習算法時,我們常採用梯度下降法來對才用的算法進行訓練。梯度下降法有三種不同的形式:批量梯度下降(Batch Gradient Descent)、隨機梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。接下來,我們將對這三種不同的梯度下降法進行理解。 梯度下降算法需要對損失函數求梯度,也就是求導。
相關文章
相關標籤/搜索