深度學習優化方法-AdaGrad

「微信公衆號」 本文文章同步更新在我的知乎專欄裏面: 深度學習優化方法-AdaGrad - Microstrong的文章 - 知乎https://zhuanlan.zhihu.com/p/38298197 梯度下降算法、隨機梯度下降算法(SGD)、小批量梯度下降算法(mini-batch SGD)、動量法(momentum)、Nesterov動量法有一個共同的特點是:對於每一個參數都用相同的學習率
相關文章
相關標籤/搜索