機器學習論文學習(1):Batch Normalization

機器學習論文閱讀(1):Batch Normalization 使用背景: 神經網絡學習過程本質就是爲了學習數據分佈,一旦訓練數據與測試數據的分佈不同,那麼網絡的泛化能力也大大降低;另外一方面,一旦每批訓練數據的分佈各不相同(batch 梯度下降),那麼網絡就要在每次迭代都去學習適應不同的分佈,這樣將會大大降低網絡的訓練速度,這也正是爲什麼我們需要對數據都要做一個歸一化預處理的原因。 網絡的前面幾
相關文章
相關標籤/搜索