深度學習之Batch Normalization

BN(Batch Normalization),顧名思義也就是「批規範化「。目前很多深度學習網絡中都會加入BN層,那麼它爲何這麼有效呢? 1、BN是什麼? 與激活層、卷積層、池化層一樣,BN也屬於神經網絡的一層。在每次SGD時,通過mini-batch來對相應的activation做規範化操作,使得結果(輸出信號各個維度)的均值爲0,方差爲1(cnn中BN一般加在卷積層與激活層之間)。但是原本數據
相關文章
相關標籤/搜索