集成學習與隨機森林(四)Boosting與Stacking

Boosting Boosting(原先稱爲hypothesis boosting),指的是能夠將多個弱學習器結合在一起的任何集成方法。對於大部分boosting方法來說,它們常規的做法是:按順序訓練模型,每個模型都會嘗試修正它的前一個模型。Booting 方法有很多種,不過到現在爲止最熱門的是AdaBoost(Adaptive Boosting的簡稱)和Gradient Boosting。我們首
相關文章
相關標籤/搜索