Machine Learning學習筆記(十四)集成學習(Boosting,Bagging,組合策略)

集成學習 在一些數據挖掘競賽中,後期我們需要對多個模型進行融合以提高效果時,常常會用到Bagging,Boosting,Stacking等這幾個框架算法。 集成學習在機器學習算法中具有較高的準確率,不足之處就是模型的訓練過程可能比較複雜,效率不是很高。目前接觸較多的集成學習主要有2種:基於Boosting的和基於Bagging,前者的代表算法有Adaboost、GBDT、XGBOOST、後者的代表
相關文章
相關標籤/搜索