深度學習筆記(四):常用優化算法分析比較及使用策略(SGD、SGDM、SGD with Nesterov Acceleration、AdaGrad、AdaDelta、Adam、Nadam)

文章目錄 一、一個框架回顧優化算法 1、SGD 算法: 評價: 2、SGDM (SGD with Momentum) 算法: 評價: 3、SGD with Nesterov Acceleration 4、AdaGrad 5、AdaDelta / RMSProp 6、Adam 7、Nadam 二、關於Adam的分析 1、Adam存在的問題一:可能不收斂 2、Adam存在的問題二:可能錯過全局最優解
相關文章
相關標籤/搜索