Batch Normalization作用

Batch Normalization Batch規範化。通過mini-batch對相應的activation做規範化操作。 用於activation set。在CNN中,應作用在非線性映射之前,即對 x = W u + b x = Wu +b x=Wu+b做規範化。 統計機器學習中的經典假設:源空間和目標空間的數據分佈是一致的。防止梯度彌散。加快訓練速度。
相關文章
相關標籤/搜索