集成學習之Bagging和Boosting的簡介

一、什麼是集成學習 集成學習在機器學習算法中具有較高的準確率,不足的就是模型訓練比較複雜,效率不高。 Boosting主要有:Adaboost、GBDT、XGBoost Bagging主要有:Random Forest 集成學習的思想: 集成學習的主要思想是構建出多個弱分類器,它們共同組合對任務進行預測。核心思想就是如何訓練多個弱分類以及如何將它們組合。 爲什麼有提出集成學習呢? 假如沒有集成學習
相關文章
相關標籤/搜索