機器學習筆記3——集成學習(ensemble)

一般來說,Ensemble模型適合於過擬合的模型,包括bagging和boosting. 3.1 Bagging 其中Bagging是單獨訓練每個分類器,然後用平均或者投票的方法組合,boosting的方法則是分類器之前存在強依賴,前一個分類器預測的解構會影響後一個分類器。隨機森林就是DT的bagging。 在相同的深度下,隨機森林並不會比決策樹好很多,但會讓分類的結果更平滑 3.2 Boosti
相關文章
相關標籤/搜索