XGBOOST—eXtreme Gradient Boosting算法原理

XGBOOST算法是由華盛頓大學陳天奇博士以GBDT和RandomForest爲基礎提出的,並開發了C++版本。該算法由於精度高、可並行化處理和可移植性,被廣泛應用於各個領域, 這也是Kaggle競賽者最常用的方法之一。 假設樣本集D = {(xi, yi)...} i = 1、...n XGBOOST預測函數可表示爲 我們使用分部加法,可將此式變換爲 其中K代表迭代K輪;方程左側爲預測值;映射f
相關文章
相關標籤/搜索