提升樹 & GBDT

仍然採用的是加法模型: 注意看,這裏沒有用權值。 這裏分類樹(二分類)就用Adaboost就行 迴歸樹採用殘差訓練 在考慮,如何讓訓練過程快一點:讓損失函數沿着梯度方向的下降。這個就是gbdt 的 gb的核心了。 利用損失函數的負梯度在當前模型的值作爲迴歸問題提升樹算法中的殘差的近似值去擬合一個迴歸樹 GBDT的思想可以用一個通俗的例子解釋,假如有個人30歲,我們首先用20歲去擬合,發現損失有10
相關文章
相關標籤/搜索