【機器學習】xgboost原理

1.集成學習 所謂集成學習,是指構建多個分類器(弱分類器)對數據集進行預測,然後用某種策略將多個分類器預測的結果集成起來,作爲最終預測結果。通俗比喻就是「三個臭皮匠賽過諸葛亮」,它要求每個弱分類器具備一定的「準確性」,分類器之間具備「差異性」。集成學習根據各個弱分類器之間有無依賴關係,分爲Boosting和Bagging Boosting 各分類器之間有依賴關係,必須串行,比如Adaboost、G
相關文章
相關標籤/搜索