對Batch_Normalization的理解

大家都說batch normalization 具有 1)加快網絡收斂 2)使訓練更加穩定(即對參數的初始化和學習率不敏感) 的作用,但是在閱讀BNs的原文之前,筆者對上面的兩個作用的理解也只是停留在文字層面,在閱讀完原文之後對BNs有了一個比較具體的認識,今天我們就來探究以下BNs是怎麼實現上述的兩個作用的。 在此之前,建議大家先看看知乎上對於BNs的高票回答,大佬們對於BNs的算法講解的還是比
相關文章
相關標籤/搜索