GBDT梯度提升樹算法原理小結(三)

首先我們回顧一下Gradient Boosting 的本質,就是訓練出,使損失函數最小,即 其求解步驟如下: 所以,我們首先得定義出損失函數,才能談求解的事情。接下來我們針對不同場景,介紹相應的損失函數。 迴歸 對於迴歸問題,定義好損失函數後,Gradient Boosting 不需要作出什麼修改,計算出來的結果就是預測值。 平方損失 在實際迴歸中,最常用的之一,就是平方損失,即 將它畫出來,形狀
相關文章
相關標籤/搜索