機器學習 7 XGBoost

1. 集成算法總結 1.1 Bagging 隨機森林:多個基模型的構建是基於不同數據來構建的,各個模型是獨立,不提提高準確度,但是可以降低過擬合; 1.2 Boosting 通過迭代的形式,基於之前構建好的模型,對樣本數據做一定的修正【或者改變權重/標籤值】然後影響之後模型的構建。不斷迭代構建的目的是:讓預測更加準確,提升準確度,降低偏差; Adaboost 通過修正樣本的權重 GBDT 通過修正
相關文章
相關標籤/搜索