小白都理解的人工智能系列(13)——如何加速神經網絡訓練過程

問題1:如何加速訓練? SGD將大的數據拆分成一塊塊小的數據進行訓練。 Momentum通過不斷調整w值的形式,朝着梯度往下走,以期儘快達到終點。 AdaGrad方式類似於一個鞋子,一走彎路,就讓你摔倒,讓你不得不走直路,儘快到底目的地。 Adam是結合兩者一起,大部分情況下都適用。
相關文章
相關標籤/搜索