[知乎]機器學習中使用正則化來防止過擬合是什麼原理?

Alan Huang 我們相當於是給模型參數w 添加了一個協方差爲1/alpha 的零均值高斯分佈先驗。 對於alpha =0,也就是不添加正則化約束,則相當於參數的高斯先驗分佈有着無窮大的協方差,那麼這個先驗約束則會非常弱,模型爲了擬合所有的訓練數據,w可以變得任意大不穩定。alpha越大,表明先驗的高斯協方差越小,模型約穩定, 相對的variance也越小。 作者:Alan Huang 鏈接:
相關文章
相關標籤/搜索