[DataAnalysis]機器學習中集成學習Boosting、Boostrap和Bagging算法介紹

 集成學習算法簡介: (1)原理: 集成學習在機器學習算法中具有較高的準去率,不足之處就是模型的訓練過程可能比較複雜,效率不是很高。目前接觸較多的集成學習主要有2種:基於Boosting的和基於Bagging,前者的代表算法有Adaboost、GBDT、XGBOOST、後者的代表算法主要是隨機森林。 集成學習的主要思想是利用一定的手段學習出多個分類器,而且這多個分類器要求是弱分類器,然後將多個
相關文章
相關標籤/搜索