集成學習:通過數學推導AdaBoost的訓練誤差可以無限接近於0,以及其樹的權重可以推導出來

集成學習,將多個獨立分類器(此處稱爲基學習器)組合在一起,共同完成任務。如bagging(減小方差)、boosting(偏差)或stacking(改進預測) 其中Boosting,主要算法有AdaBoost/GBDT/Xgboost/LightGBM 關於Boosting的兩個核心問題:   1)在每一輪如何改變訓練數據的權值或概率分佈?   通過提高那些在前一輪被弱分類器分錯樣例的權值,減小前一
相關文章
相關標籤/搜索