Datawhale&kesci&伯禹教育-深度學習-第二次打卡1 過擬合&欠擬合的解決方法

訓練誤差和泛化誤差 訓練誤差: 在訓練數據上表現得誤差 泛化誤差:在任意測試數據上表現的誤差的期望 通過損失來衡量誤差。例如,線性迴歸用平方損失函數,softma用的交叉熵迴歸。 模型的核心是降低泛化誤差。 常見訓練數據劃分方法 1.留有一定比例的驗證集 2. K折交叉驗證 欠擬合(無法得到較低的誤差)和過擬合(訓練誤差遠小於測試誤差) 產生的原因: 模型複雜度和訓練數據 1.模型複雜度 2. 訓
相關文章
相關標籤/搜索