Batch Normalization論文翻譯

聲明:文章僅作知識整理、分享,如有侵權請聯繫作者刪除博文,謝謝! 摘要 訓練深度神經網絡的複雜性在於,每層輸入的分佈在訓練過程中會發生變化,因爲前面的層的參數會發生變化。通過要求較低的學習率和仔細的參數初始化減慢了訓練,並且使具有飽和非線性的模型訓練起來非常困難。我們將這種現象稱爲內部協變量轉移,並通過標準化層輸入來解決這個問題。我們的方法力圖使標準化成爲模型架構的一部分,併爲每個訓練小批量數據執
相關文章
相關標籤/搜索