Inception v2_batch normalization 論文筆記

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift——2015 摘要:由於在訓練過程中前層參數的改變,導致每一層的輸入的分佈發生變化,所以訓練深層神經網絡是複雜的。這也導致需要小的學習率和小心的參數初始化工作,因此減輕了訓練速度,也因爲陷入飽和非線性加劇了模型訓練的
相關文章
相關標籤/搜索