深度學習之梯度降低算法(SGD,RMSProp,Adam)

梯度降低算法改進 1. 優化遇到的問題 1.1 梯度消失 1.2 局部最優 1.3 參數初始化策略(複習) 2. 批梯度降低算法(Batch Gradient Descent) 3. Mini-Batch Gradient Descent 4. 批梯度降低與Mini-Batch梯度降低的區別 5. 梯度降低優化影響 6.大小選擇 7. 指數加權平均 8. 動量梯度降低法 9. RMSProp 算法
相關文章
相關標籤/搜索