GBDT(Gradient boosting Decision Tree)梯度提升決策樹

參考資料 博客1 GBDT算法原理深入解析 這位大佬後面講了推導,讓我明白了這段話: Gradient Boosting是一種Boosting的方法,其與傳統的Boosting的區別是,每一次的計算是爲了 **減少上一次的殘差(residual) **,而爲了消除殘差,可以在殘差減少的梯度(Gradient)方向上建立一個新的模型。所以說,在Gradient Boosting中,每個新的模型的建立
相關文章
相關標籤/搜索