[DataAnalysis]如何理解機器學習中的正則化

正則化綜述 機器學習中經常會在損失函數 中加入正則項,稱之爲正則化(Regularize)。 目的:防止模型過擬合 原理:在損失函數上加上某些規則(限制),縮小解空間,從而減少求出過擬合解的可能性 例子:以最簡單的線性模型爲例,我們在統計學習中接觸到線性迴歸的最小二乘估計和正則化的嶺迴歸與拉索迴歸。 最小二乘估計: 嶺迴歸: 在數學上我們可以證明嶺估計的參數模要嚴格小於最小二乘估計的參數模,換句話
相關文章
相關標籤/搜索