對 Batch Normalization論文的理解

Batch Normalization是在inception V2中提到的,是一種非常好的正則化方法,它使訓練速度增加了許多,並且去除了dropout。 Abstract: 在訓練過程中,每層的輸入分佈會隨着前一層參數的變化而變化,這種分佈的改變被稱爲Internal Covariate Shift。所以這會需要更低的學習率和謹慎的參數初始化,從而導致訓練速度的變慢。解決的方法就是對每層的輸入都做
相關文章
相關標籤/搜索