CNN系列學習(五):batchnorm

參考出處:http://www.javashuo.com/article/p-wmqryoke-nm.html 在上一篇關於解決梯度消失和梯度爆炸的介紹中提到了其中一種方法就是採用batchnorm,可譯爲批量規範化,這篇介紹就好好講講batchnorm的相關概念。 就跟我們之前談到,訓練深度網絡的時候經常發生訓練困難的問題,原因是因爲,每一次參數迭代更新後,上一層網絡的輸出數據經過這一層網絡計算
相關文章
相關標籤/搜索