關於K-fold cross validation 下不一樣的K的選擇的疑惑?

 在K-fold cross validation 下 比較不一樣的K的選擇對於參數選擇(模型參數,CV意義下的估計的泛化偏差)以及實際泛化偏差的影響。更通常的問題,在實際模型選擇問題中,選擇幾重交叉驗證比較合適?ide   交叉驗證的背景知識:性能 CV是用來驗證模型假設(hypothesis)性能的一種統計分析方法,基本思想是在某種意義下將原始數據進行分組,一部分做爲訓練集,一部分做爲驗證集,
相關文章
相關標籤/搜索