取代學習率衰減的新方法:谷歌大腦提出增加Batch Size

谷歌大腦在最新的一篇論文中提出,通過增加訓練過程中的 batch size,能夠在訓練集和測試集上取得類似學習率衰減的表現。此外這種方法還有一系列的優勢:參數更新數量更少、更強大的並行、更短的訓練時間等等。機器之心對此論文做了摘要介紹,更詳細的內容請閱讀原論文。 論文鏈接:https://arxiv.org/abs/1711.00489 摘要:學習率衰減是一種常見的方法。在這篇論文中,我們展示了通
相關文章
相關標籤/搜索