BatchNormalization的作用

其一,直覺上講,將所有的x將其變化範圍通過歸一化從1-1000到一個相似的變化範圍,這樣可以加快學習速度 其二,在輸入的分佈不同的情況下,如圖 第一個輸入全是黑貓,其分佈如其上圖(左),其學到的決策邊界可能是一條直線,用圖右邊的數據進行測試時就會得到一個預測不準確的結果,而實際上,對於圖中的分佈,我們想要學到的決策邊界應該是如下圖所示: 由於輸入數據分佈的偏好很容易導致學不到上圖所示綠色的決策邊界
相關文章
相關標籤/搜索