深度學習 BN(Batch Normalization)層的原理介紹

       總結:Batch Normalization的引入主要還是爲了解決「Internal Covariate Shift」數據分佈的改變問題。隨着網絡深度加深或者在訓練過程中,其分佈逐漸發生偏移或者變動,之所以訓練收斂慢,一般是整體分佈逐漸往非線性函數的取值區間的上下限兩端靠近。所以這導致反向傳播時低層神經網絡的梯度消失,這是訓練深層神經網絡收斂越來越慢的本質原因,而BN就是通過一定的規
相關文章
相關標籤/搜索