特徵處理之使數據分佈逼近正態分佈

前言 在機器學習和深度學習中,咱們常常要對輸入的數據作歸一化或者在隱藏層使用Batch-Normlization(BN)操做,將數據範圍縮放到[0,1]或者[-1, 1]之間,主要做用:能夠加快神經網絡訓練速度,防止過擬合。然而不管作歸一化仍是BN處理,雖然將數據的均值變爲0,方差變爲1,可是數據的總體分佈並不必定服從標準的正態分佈(實際數據大部分時候都不會是),作歸一化和BN時,咱們求出來的均值
相關文章
相關標籤/搜索