通過對比Bagging/Boosting/RF/GDBT來理解XGB

引入 用過XGB模型的人,都大致知道,XGB是由多棵樹組成的,像一片森林,這是一種集成學習方法。但是,這片森林裏的每棵樹都是通過純度計算與分支劃分得到的嗎?多棵樹是如何組合(集成)在一起共同做決策的呢?XGB和RandomForest是什麼區別?XGB和GDBT又有什麼區別呢? 如何才能解釋這些問題 首先,我們需要理解幾個概念 (1)集成學習 集成學習分爲三種算法:Bagging,Boosting
相關文章
相關標籤/搜索