深度學習之Batch歸一化

前言            以下內容是個人學習之後的感悟,轉載請註明出處~     Batch歸一化   在神經網絡中,我們常常會遇到梯度消失的情況,比如下圖中的sigmod激活函數,當離零點很遠時,梯度基本爲0。爲了 解決這個問題,我們可以採用Batch歸一化。                                                    通過BN法,我們將每層的激活值都
相關文章
相關標籤/搜索