關於使用哪一種分類算法的總結

2019獨角獸企業重金招聘Python工程師標準>>> 算法 訓練集有多大? 若是你的訓練集很小,高誤差/低方差的分類器(如樸素貝葉斯)比低誤差/高方差的分類器(如K近鄰或Logistic迴歸)更有優點,由於後者容易過擬合。可是隨着訓練集的增大,高誤差的分類器並不能訓練出很是準確的模型,因此低誤差/高方差的分類器會勝出(它們有更小的漸近偏差)。dom 你也能夠從生成模型與鑑別模型的區別來考慮它們。
相關文章
相關標籤/搜索