Batch Normalization

本文鏈接:https://arxiv.org/abs/1502.03167 簡介 在深度神經網絡訓練的過程中,當前面層的參數發生變化時,會導致後面層輸入數據的分佈變化,進而影響訓練效果,使網絡的訓練變得複雜。本文提出了一種Batch Normalization方法解決這個問題,該方法可以使用較大的學習率進行學習,同時可以忽略掉dropout的作用,提高模型收斂速度,提高識別率。 Introduct
相關文章
相關標籤/搜索