一個實例講透GBDT

GBDT(Gradient Boosting Regression Tree,梯度提升迴歸樹)是Boosting算法的一種,但是和AdaBoost算法不同,區別如下:AdaBoost算法是利用前一輪的弱學習器的誤差來更新樣本權重值,然後一輪一輪迭代;GBDT雖然也是迭代,但是GBDT要求弱學習器必須是CART迴歸樹,而且GBDT在訓練的時候,要求模型預測的樣本損失儘可能的小。 在GBDT的迭代中,
相關文章
相關標籤/搜索