pytorch正則化——weitht decay

pytorch正則化——weitht decay 一、正則化與偏差—方差分解 1、Regularization:減少方差的策略 誤差可分解爲:偏差,方差與噪聲之和,即:誤差=偏差+方差+噪聲之和 偏差:度量了學習算法的期望預測與真實結果的偏離程度,即刻畫了學習算法本身的擬合能力 方差:度量了同樣大小的訓練集的變動所導致的學習性能的變化,即刻畫了數據擾動的影響 噪聲:即表達了在當前任務上任何學習算法
相關文章
相關標籤/搜索