關於幾個normalization個人理解

比較經典的幾個normalization: 盜圖: 1、BN 對 (H×W×N) 進行歸一化 實現原理很簡單,就是對一個minibatch 計算一下均值和標準差,然後進行一個標準化操作,最後通過添加兩個(可學習)scale和shift參數來防止其太過於線性而降低網絡的表達能力。 網上都在說BN將輸入強行拉回到正態分佈看得我一臉懵,我覺得應該強調的是這個normalize使整個minibatch回到
相關文章
相關標籤/搜索