深度學習系列(七) 優化算法(梯度下降、動量法、AdaGrad算法、RMSProp算法、AdaDelta算法、Adam算法) 2020.6.24

前言 在訓練模型時,會使⽤優化算法不斷迭代模型參數以降低模型損失函數的值 本節詳細學習常用的優化算法 梯度下降 動量法 AdaGrad算法 RMSProp算法 AdaDelta算法 Adam算法 1、優化算法的挑戰 優化算法的⽬標函數通常是⼀個基於訓練數據集的損失函數 優化的⽬標在於降低訓練誤差 通常會遇上兩個挑戰 局部最小值 鞍點 局部最小值 如果f(x)在x上的值⽐在x鄰近的其他點的值更小,那
相關文章
相關標籤/搜索