xgboost原理

閱讀XGBoost 與 Boosted Tree 基學習器:CART 每個葉子節點上面有一個分數 不夠厲害,所以找一個更強的模型 tree ensemble 對每個樣本的預測結果是每棵樹預測分數的和 目標函數 採用boosting(additive training)方法,每一次都加入一個新的函數。依賴每個數據點上的誤差函數的一階導數和二階導(區別於GBDT)。 樹的複雜度 複雜度包含了一棵樹裏面
相關文章
相關標籤/搜索