xgboost 相比GBDT有什麼區別

最近剛看完xgboost的paper,權當是 整理一下思路。 算法層面的: 1.XGB加了正則項,普通GBDT沒有。爲了防止過擬合 T爲葉子節點的數量,W爲葉子的權重。 Y帽子 爲預測值,Y爲目標值。 gamma ,delta 爲參數 2.xgboost損失函數是誤差部分是二階泰勒展開,GBDT 是一階泰勒展開。因此損失函數近似的更精準。 3.對每顆子樹增加一個參數,使得每顆子樹的權重降低,防止過
相關文章
相關標籤/搜索