2017年深度學習優化算法最新進展:改進SGD和Adam方法

2017年深度學習優化算法最新進展:如何改進SGD和Adam方法 轉載的文章,把個人覺得比較好的摘錄了一下 AMSGrad 這個前期比sgd快,不能收斂到最優。 sgdr 餘弦退火的方案比較好 最近的一些研究(Dozat and Manning, 2017[13]、Laine and Aila, 2017[16])通過實驗發現,調低β2值,影響了Adam方法中過去平方梯度的指數移動平均值的貢獻度。
相關文章
相關標籤/搜索