pytorch框架學習(15)——正則化

文章目錄 1. 正則化與偏差-方差分解 2. pytorch中的L2正則項——weight decay 3. Dropout 1. 正則化與偏差-方差分解 Regularization:減小方差的策略(防止過擬合) 誤差可分解爲:偏差,方差與噪聲之和。即誤差 = 偏差 + 方差 + 噪聲 偏差:度量了學習算法的期望預測與真實結果的偏離程度,即刻畫了學習算法本身的擬合能力 方差:度量了同樣大小的訓練
相關文章
相關標籤/搜索