對Batch Normalization 的理解

之前看到防止過擬合的方法有dropout,L2正則化和Batch Normalization等,自己對前兩種比較容易理解,而Batch Normalization爲什麼可以防止過擬合不太容易理解,於是上網查了一下資料,結合自己的想法總結一下。 BN會使參數搜索問題變得更加容易,使神經網絡對超參數的選擇更加穩定,超參數的範圍會變得龐大,工作效果也很好,容易訓練深層網絡。 首先,BN提出來是爲了解決i
相關文章
相關標籤/搜索