2.8 Adam 優化算法-深度學習第二課《改善深層神經網絡》-Stanford吳恩達教授

Adam優化算法 (Adam Optimization Algorithm) 在深度學習的歷史上,包括許多知名研究者在內,提出了優化算法,並很好地解決了一些問題,但隨後這些優化算法被指出並不能一般化,並不適用於多種神經網絡,時間久了,深度學習圈子裏的人開始多少有些質疑全新的優化算法,很多人都覺得動量(Momentum)梯度下降法很好用,很難再想出更好的優化算法。所以RMSprop以及Adam優化算
相關文章
相關標籤/搜索