批規範化 Batch Normalization

batch normalization 就是對數據作批規範化,使得數據知足均值爲0,方差爲1的正太分佈。其主要做用是緩解DNN訓練中的梯度消失/爆炸現象,加快模型的訓練速度。BN在2015年提出,論文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shiftpython
相關文章
相關標籤/搜索