【機器學習】L1正則化與L2正則化詳解及解決過擬合的方法

在詳細介紹L1與L2之前,先講講正則化的應用場景。 正則化方法:防止過擬合,提高泛化能力 所謂過擬合(over-fitting)其實就是所建的機器學習模型或者是深度學習模型在訓練樣本中表現得過於優越,導致在驗證數據集以及測試數據集中表現不佳。 造成過擬合的本質原因是模型學習的太過精密,導致連訓練集中的樣本噪聲也一絲不差的訓練進入了模型。 所謂欠擬合(under-fitting),與過擬合恰好相反,
相關文章
相關標籤/搜索