GBDT原理及和Adaboost的區別

GBDT和Adaboost的區別 Adaboost和GBDT都是基於加法模型和前向分步算法。Adaboost用於分類時可以看成基分類器是分類決策樹樁,令損失函數爲指數函數,通過每一次迭代調整樣本權重分佈使損失函數達到最小。這裏指數函數和分類錯誤率一般分類器使用的分類函數可以認爲是等價的。Adaboost用於迴歸時基學習器是迴歸決策樹樁,令損失函數爲殘差。這裏爲什麼不調整權重?GBDT是通過每一步擬
相關文章
相關標籤/搜索