【K折交叉驗證】採用合理的K折,告別經驗取值,可提升模型性能

引言        想必做機器學習的,都不同程度的用過交叉驗證(cross validation),通常使用交叉驗證評估一個機器學習模型的表現。交叉驗證有很長的歷史,但交叉驗證的研究有不少待解決的問題。就交叉驗證的K值選取來講,可能一部分人不加思考,只是泛泛的使用常規的10折,也可能一部分人思考過,但仍然會困惑。那麼K值取多少合適呢? 10折交叉驗證(圖片來源: 周志華, 機器學習, 清華大學出版
相關文章
相關標籤/搜索