Python3機器學習實踐:集成學習之XGBoost

一、XGBoost目標函數 首先認清一點,它是GBDT的升級版,由陳天奇發明,在效率、方法方面都進行了優化。 不管對於迴歸問題還是分類問題,好的機器學習方法的目的就是降低目標函數(也可稱爲損失函數)的值,目標函數包括2個部分:一是模型的損失函數,二是模型的複雜度。也就是目標函數具有下面的形式: 上面公式中,前者表示模型的損失函數的值,降低它是爲了降低偏差,也就是使得預測的數據和真實的數據更爲接近;
相關文章
相關標籤/搜索