深度學習-Batch normalization的理解

進行多次的數據處理後,可能會導致數據分佈不均勻,不同特徵值的重要程度不同,比如:  左圖中w1特徵影響較大,w2特徵影響較小,所以再進入最中間橢圓後,w2方向幾乎不怎麼變動了,並且在橢圓的不同位置到達圓心的距離相差很大。而在右圖中,圓上同圈內不同位置的點到達圓心的距離是相等的,w1和w2同等重要。 所以需要對數據進行歸一化,比如normalization 歸一化,將數據轉換成(0,1)之間,還比如
相關文章
相關標籤/搜索