從GB到GBDT到XGBoost

Boosting boosting一句話理解:三個臭皮匠,頂個諸葛亮。 在計算機學習理論裏,強可學習和弱可學習是等價的。 弱可學習模型轉化爲強可學習模型方法:前向分佈加法模型。 最簡單前向分佈加法模型 yk+1 = yk + ( y-yk ) ( y-yk )即爲殘差,每一個新的弱分類器學習的目標都是殘差 這麼一個簡單的模型,能否得到我們想要的結果? 理論上( y-yk )只有方向是準確的,具體是
相關文章
相關標籤/搜索