集成學習(4)——GBDT

概述 GBDT的全稱是Gradient boosting decision tree,它是通過擬合負梯度Gradient boosting和決策迴歸樹decision tree組合而成,該算法由多顆決策樹構成,多顆決策樹的結果加起來作爲最終結論。讓損失函數沿着梯度方向的下降。這個就是GDBT 的 GB的核心。GBDT 每輪迭代的時候,都去擬合損失函數在當前模型下的負梯度。(如果損失函數使用的是平方
相關文章
相關標籤/搜索