(11)[ICML15] Batch Norm: Accelerating Deep Network Training by Reducing Internal Covariate Shift

計劃完成深度學習入門的126篇論文第十一篇,Google的Ioffe和Szegedy使用一種新的regularization方法或者說是新的initialization的方法Batch Normalization。 ABSTRACT&INTRODUCTION 摘要 因爲訓練過程當中各層輸入的分佈隨前一層參數的變化而變化,使得深度神經網絡的訓練變得複雜。這須要較低的學習率和謹慎的參數初始化,從而下降
相關文章
相關標籤/搜索