Batch Normalization

出自論文: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift Introduction 隨機梯度下降法(SGD)在很多模型上都取得了很不錯的效果,尤其是結合了mini-batch之後,一方面計算效率更高,另一方面梯度估計的更加準確。然而,SGD對模型的超參數十分敏
相關文章
相關標籤/搜索