關於adaboost、GBDT、xgboost之間的區別與聯繫

AdaBoost:提高那些被前一輪弱分類器錯誤分類樣本的權值,而降低那些被正確分類樣本的權值。這樣一來,那些沒有得到正確分類的數據,由於其權值的加大而受到後一輪的弱分類器的更大關注,於是,分類問題就被一系列的弱分類器「分而治之」。至於第二個問題,即弱分類器的組合,AdaBoost採取加權多數表決的方法。具體地,加大分類誤差率小的弱分類器的權值,使其在表決中起較大的作用,減小分類誤差率較大的弱分類器
相關文章
相關標籤/搜索