每日一練之梯度提升樹GBDT

1:簡介(去看看本) GBDT也是集成學習Boosting家族的成員,但是卻和傳統的Adaboost有很大的不同。回顧下Adaboost,我們是利用前一輪迭代弱學習器的誤差率來更新訓練集的權重,這樣一輪輪的迭代下去。GBDT也是迭代,使用了前向分佈算法,但是弱學習器限定了只能使用CART迴歸樹模型,同時迭代思路和Adaboost也有所不同。     在GBDT的迭代中,假設我們前一輪迭代得到的強學
相關文章
相關標籤/搜索