關於k-NN算法的總結及我的理解

k-NN算法的三要素:k值的選擇,距離度量,分類決策規則。web k值的選擇: k值選的太小,訓練偏差會很小,但測試偏差會對應增長,這是明顯的過擬合現象。k值選的過大,訓練偏差過大,測試偏差也會很大,明顯的欠擬合現象。 K近鄰法不具備顯示的學習過程,也就是沒有顯示的訓練過程,怎麼會有訓練偏差呢?其實從原理上仍是挺容易理解的,K近鄰法肯定後k值大小,距離度量和分類決策以後,數據集自己就可使用該模型進
相關文章
相關標籤/搜索