深度學習的正則化

在機器學習中,許多策略被顯示地設計減少測試誤差(可能以增大訓練誤差爲代價),這些策略被統稱爲正則化。 1. 損失函數:Jw = MSE +  正則項 正則化是指修改學習算法,使其降低泛化誤差而非訓練誤差。 常見正則項有L2,L1 2. 欠擬合(underfitting)和過擬合 (overfitting)。欠擬合是指模型不能在訓練集上獲得足夠低的誤差。而過擬合是指訓 練誤差和和測試誤差之間的差距太
相關文章
相關標籤/搜索