GBDT小結

GDBT 在說GBDT前,我們先說下它的倆前綴Gradient Boosting: Boosting: 這是一種迭代算法,每一次訓練都是在前面已有模型的預測基礎上進行。 最簡單地說,先訓練一個初始模型,對比真實值和預測值的殘差;用殘差再訓練一個模型,再計算殘差;再訓練……。這樣,每一個模型都專注於修正前面模型最不給力的效果方面。 於是,通過這種方式聯合多個弱分類器,就能得到一個強分類器。 Grad
相關文章
相關標籤/搜索