深度學習筆記(2):3.4-3.7 batch norm(batch normalization)

3.4-3.7小節講述batch normalization這個方法,包括其思想,使用方法,爲什麼奏效即測試時作法。 3.4 思想:對神經網絡每一層標準化(normalizing activations in a network) 先前在1.9 標準化輸入我們已經講過標準化輸入層是如何提高模型訓練速度的,尤其在特徵取值差別大時。而batch normalization的思想是希望對每一層節點都作標
相關文章
相關標籤/搜索