【Deep Learning 】深度模型中的優化問題(一)SGD

本文是Deep Learning 之 最優化方法系列文章的SGD方法。主要參考Deep Learning 一書。 以下節選自個人深度學習筆記。 內容整合來源於網絡與個人理解。 先來看一下學習步長: 口 學習步長的設置是個難題:若學習步長過大,則目標函數可能不降低; 但若學習步長過小,則訓練過程可能非常緩慢。 口 解決之道:訓練幾輪(輪數t)後就按一些因素調整學習步長。 碎碎念:①學習步長↓ <=>
相關文章
相關標籤/搜索