集成學習(boosting/bagging/stracking/Adaboost/GBDT/xgboost/RF)

Boosting         迭代提升,串行。基於弱分類器分錯的樣本,改變樣本的概率分佈構成新訓練集,訓練一個更強的學習器。迭代得到的一系列弱分類器,根據合併弱的學習模型來創造一個強大的學習模型。但是,只有當各模型之間沒有相關性的時候組合起來後才比較強大。 (1)adaboost         不改變訓練數據,迭代時提升錯分樣本權重,減少正確分類樣本權重,最後通過加權線性組合M個弱分類器得到
相關文章
相關標籤/搜索
本站公眾號
   歡迎關注本站公眾號,獲取更多信息