高斯,拉普拉斯分佈

一般來說我們可以使用正則化來避免過度擬合。但是實際上什麼是正則化,什麼是通用技術,以及它們有何不同? 「正規化是我們對學習算法所做的任何修改,旨在減少其泛化誤差,而不是其訓練誤差。」 換句話說:通過防止算法過度擬合訓練數據集,可以將正則化用於訓練對看不見的數據更好地泛化的模型。 那麼,如何修改邏輯迴歸算法以減少泛化誤差呢? 我發現的常見方法是高斯,拉普拉斯,L1和L2。 高斯還是L2,拉普拉斯還是
相關文章
相關標籤/搜索