深度學習裏面的而優化函數

https://mp.weixin.qq.com/s/xm4MuZm-6nKTn2eE3eNOlg (一)一個框架看懂優化算法 「 說到優化算法,入門級必從 SGD 學起,老司機則會告訴你更好的還有AdaGrad / AdaDelta,或者直接無腦用 Adam。可是看看學術界的最新 paper,卻發現一衆大神還在用着入門級的 SGD,最多加個 Momentum 或者 Nesterov,還經常會黑一
相關文章
相關標籤/搜索