adaboost原理和實現

上兩篇說了決策樹到集成學習的大概,這節我們通過adaboost來具體瞭解一下集成學習的簡單做法。 集成學習有bagging和boosting兩種不同的思路,bagging的代表是隨機森林,boosting比較基礎的adaboost,高級一點有GBDT,在這裏我也說下我理解的這兩個做法的核心區別: 隨機森林的bagging是採用有放回抽樣得到n個訓練集,每個訓練集都會有重複的樣本,每個訓練集數據都一
相關文章
相關標籤/搜索