Pytorch系列之——正則化

正則化之weight decay 正則化與偏差-方差分解 pytorch中的L2正則化——weight decay 在機器學習、深度學習當中我們經常會聽到regularization正則化這個概念,正則化這三個字到底是什麼意思呢?如果直接從字面的意思來理解正則化是非常抽象的,但正則化的概念非常簡單,就是減少方差的策略。那麼什麼是方差,什麼是偏差呢? 誤差可分解爲:偏差、方差與噪聲之和。即誤差=偏差
相關文章
相關標籤/搜索