深度學習PyTorch | 總結

過擬合、欠擬合 1、在數據不夠多的時候,k折交叉驗證是一種常用的驗證方法。 2、過擬合是指訓練誤差達到一個較低的水平,而泛化誤差依然較大。 欠擬合是指訓練誤差和泛化誤差都不能達到一個較低的水平。 發生欠擬合的時候在訓練集上訓練誤差不能達到一個比較低的水平,所以過擬合和欠擬合不可能同時發生。 3、模型複雜度低容易導致欠擬合;訓練數據集小容易導致過擬合;過擬合還可以使用權重衰減和丟棄法來緩解,即使在一
相關文章
相關標籤/搜索