深度學習中batch_normalization的理解

下面是自己對神經網絡中batch_normalization(批標準特徵化)的一個小結,很容易理解: 1.讓每一層神經網絡處理的數據更加具有規律性,從而神經網絡也可以更加容易學習到數據中的規律。 2.對於一些激勵函數,比如tan,激勵函數只對一部分區間的數據比較敏感,其他地方的數據變化,做出的反應不大。 比如下面一個圖: 數據只對圖中紅色區域比較敏感,而batch)normalization能把數
相關文章
相關標籤/搜索