ML模型5:集成算法簡介

集成算法 1. Bagging 隨機森林 2. Boosting 2.1 Adaboost 2.2 GBDT 2.3 Xgboost 3. Stacking 集成學習在機器學習算法中具有較高的準去率,不足之處就是模型的訓練過程可能比較複雜,效率不是很高。其核心思想就是如何訓練處多個弱分類器以及如何將這些弱分類器進行組合。主要分類如下: Bagging:訓練多個分類器取平均。如隨機森林 Boosti
相關文章
相關標籤/搜索