GBDT,XGboost,Lightgbm,Catboost總結

mark一下,感謝作者分享! 一、DBDT 分裂 GBDT使用的決策樹就是CART迴歸樹,無論是處理迴歸問題還是二分類以及多分類,GBDT使用的決策樹自始至終都是CART迴歸樹。   對於迴歸樹算法來說最主要的是尋找最佳的劃分點,那麼迴歸樹中的可劃分點包含了所有特徵的所有可取的值。在分類樹中最佳劃分點的判別標準是熵或者基尼係數,都是用純度來衡量的,但是在迴歸樹中的樣本標籤也是連續數值,所以再使用熵
相關文章
相關標籤/搜索