k近鄰算法中k值得選擇

k值得選擇會對k近鄰的結果產生重大的影響  若是選擇較小的K值,就至關於用較小的鄰域中的訓練實例進行預測,「學習」的近似偏差會減少,只有輸入實例較近的訓練實例纔會對預測結果起做用。但缺點是「學習」的估計偏差會增大,預測結果會對近鄰實例點很是敏感。若是鄰近的實例點恰巧是噪聲,預測就會出錯。換句話說,k值得減少就意味着總體模型很是複雜,容易發生過擬合  若是選擇較大的k值,就至關於用較大鄰域中的訓練實
相關文章
相關標籤/搜索