深度學習剖根問底: Adam優化算法理解

Momentum是爲了對衝mini-batch帶來的抖動。 RMSprop是爲了對hyper-parameter進行歸一,均方根反向傳播(RMSProp)。 這兩個加起來就是Adam 看原始的RMSProp算法:  再看算法:其實就是Momentum+RMSProp的結合,然後再修正其偏差。 
相關文章
相關標籤/搜索