深度學習之感性理解-優化器

深度學習之感性理解-優化器 梯度下降法 批量梯度下降法(BGD) 隨機梯度下降法(SGD) 小批量梯度下降法(MBGD) Momentum AdaGrad Adam RMSprop 梯度下降法 批量梯度下降法(BGD) 所謂批量,就是一次性把所有樣本都進行訓練,因爲所有的樣本一起迭代算一次,所以下降方向相對比較準確,不會有太大的偏移,同時由於樣本數太多,可能迭代一次會比較慢。 隨機梯度下降法(SG
相關文章
相關標籤/搜索