神經網絡之L2正則化

1、前言                 之前的BP神經網絡,訓練時候,算法會調整每層的參數w使得損失儘可能小,由於數據存在很多幹擾或者噪聲,容易產生過擬合現象,導致網絡對訓練數據預測的效果較好,而對測試和驗證數據的預測效果較差。過擬合的決策面可能如下所示: 2、L2 Regularization         事實表明,在相同網絡結構下,決策面越複雜,參數w的值往往更大,而w較小時候,得到的決
相關文章
相關標籤/搜索