【數據挖掘】GBDT,XGBoost

小白學數據,只爲記錄學習進程,對每個問題有新的理解會及時更正。 兩個模型都是基於Boosting的思想,採用串聯的方法來提升預測的精度 一、GBDT GBDT採用的弱學習器是CART迴歸決策樹,所以,首先學習一下CART迴歸決策樹的知識 假設有 N 個樣本,每個樣本有 J 個屬性 1.對每個樣本的y值進行從小到大的排序,然後取相鄰兩個值的均值作爲分割點 2.計算分割後,左右兩個葉子的誤差之和: 其
相關文章
相關標籤/搜索