BN、LN、IN、GN的區別

一、Batch Normalization        卷積神經網絡的出現,網絡參數量大大減低,使得幾十層的深層網絡成爲可能。然而,在殘差網絡出現之前,網絡的加深使得網絡訓練變得非常不穩定,甚至出現網絡長時間不更新甚至不收斂的現象,同時網絡對超參數比較敏感,超參數的微量擾動也會導致網絡的訓練軌跡完全改變。        2015年,Google研究人員SergeyIoffe等提出了一種參數標準化
相關文章
相關標籤/搜索