機器學習/深度學習入門:優化器原理與比較

梯度下降法(Gradient Descent) 梯度下降法是最基本的一類優化器,目前主要分爲三種梯度下降法:標準梯度下降法(GD, Gradient Descent),隨機梯度下降法(SGD, Stochastic Gradient Descent)及批量梯度下降法(BGD, Batch Gradient Descent)。 1. 標準梯度下降法(GD) 假設要學習訓練的模型參數爲W,代價函數爲J
相關文章
相關標籤/搜索