【deeplearning.ai筆記第二課】2.4 batch normalization

1. batch normalization介紹 批標準化(batch normalization) 是優化深度神經網絡中最激動人心的最新創新之一。實際上它並不是一個優化算法,而是一個自適應的重參數化的方法,試圖解決訓練非常深的模型的困難。 說的通俗點,實際上就是BN就是在對每一個隱藏層的輸出 Zi 做標準化。 非常深的模型會涉及多個函數或層組合。這使得我們很難選擇一個合適的學習率,因爲某一層中參
相關文章
相關標籤/搜索