優化器

文章目錄 標準梯度下降法GD 隨機梯度下降法(SGD)和批隨機梯度下降法(BGD) 爲什麼不用牛頓法? 動量法 NAG 動量法改進算法(帶剎車) AdaGrad RMSProp算法 AdaDelta算法 Adam算法 選擇標準 其他優化方法 參考鏈接來源 標準梯度下降法GD 隨機梯度下降法(SGD)和批隨機梯度下降法(BGD) 爲什麼不用牛頓法? 動量法 動量法用於解決局部梯度的反方向不一定是函數
相關文章
相關標籤/搜索