『Gradient Boosting 』LightGBM與XGBoost對比

LightGBM和XGBoost都是GBDT的高效實現,所以先簡單介紹下GBDT。 1. Gradient Boosting Decision Tree 提升樹的學習優化過程中,損失函數平方損失和指數損失時候,每一步優化相對簡單,但對於一般損失函數優化的問題,Freidman提出了Gradient Boosting算法,其利用了損失函數的負梯度在當前模型的值 − [ ∂ L ( y , f ( x
相關文章
相關標籤/搜索