Xgboost原理分析

Xgboost 從陳天奇的PPT中進行總結,重點了解模型的構建,策略的選擇和優化算法的選取。 基礎 機器學習的目標函數基本都是: 也就是 損失函數和正則化項的組合。 在目標函數,偏差和方差之間 做trade-off 損失函數 爲了得到更好的預測模型,在訓練數據集上擬合更好的效果。至少能夠讓我們的模型逼近訓練數據的可能的分佈情況。(數據的情況決定了我們模型的上界,我們儘可能的去逼近那個界) 正則化
相關文章
相關標籤/搜索