迴歸樹

GBDT由一系列的迴歸樹組成,如下圖所示(樹的深度未必都要一樣,下圖僅爲示意圖)。 GBDT原理 針對每一個類別訓練一系列的迴歸樹,再累加每個類別迴歸樹的預測值得到針對每個類別的最終的預測值。單獨拿一個類別來說,訓練的過程中假設需要預測的值爲,實際的值爲,有Loss Function ,爲參數。訓練的過程就是讓Loss Function最小化的過程。最小化可以通過梯度下降完成,令Loss Func
相關文章
相關標籤/搜索