深度學習歸一化簡介

 我們假定數據輸入的圖像是[patch, width, height, channel] N:patch C:channel  BN(批歸一化):  求出x的均值 求出x的方差 利用正態分佈的標準化,使其服從標準正態分佈 但是破壞原來的數據分佈,所以需要第四步進行重構,gama 和 beta 是可以學習到的參數;當gama = std, beta = mean 就會恢復到原來的分佈 優點: 對參數
相關文章
相關標籤/搜索