2019最牛的梯度優化算法出爐,AdaBound實驗對比代碼

論文:Adaptive Gradient Methods with Dynamic Bound of Learning Rate 論文地址:https://openreview.net/pdf?id=Bkg3g2R9FX github地址:https://github.com/Luolc/AdaBound   AdaBound可以被視爲一個優化器,隨着訓練步數的變大,它會從Adam動態轉換爲SGD
相關文章
相關標籤/搜索