機器學習正則化問題

前言: 因爲經常出現欠擬合和過擬合的問題,欠擬合好處理,過擬合一般有兩個處理的方法: 1.減少選取的變量 模型選擇算法 2.正則化 保留所有特徵變量,減少量級或參數的大小(L2正則化) 正則化其實就是給目標函數增加一個懲罰項,使得模型更傾向於使用更加簡單的模型,以防止過擬合 增加罰項解決過擬合(側面看正則化的道理) 兩個正則化: L1正則化範數: 符合拉普拉斯分佈,是不完全可微的。表現在圖像上會有
相關文章
相關標籤/搜索