優化算法選擇:SGD、SGDM、NAG、Adam、AdaGrad、RMSProp、Nadam

目錄 優化算法通用框架 SGD 系列:固定學習率的優化算法 SGD  SGD (with Momentum) = SGD-M SGD(with Nesterov Acceleration)= NAG 自適應學習率的優化算法 AdaGrad AdaDelta / RMSProp Adam / Nadam Adam Nadam Adam 兩宗罪 1. 可能不收斂 2. 可能錯過全局最優解 Adam +
相關文章
相關標籤/搜索