TASK2 GBDT算法梳理

1 前向分佈算法 這樣,前向分佈算法將同時求解從m=1到M的所有參數βm, rm的優化問題簡化爲逐次求解各個βm, rm的優化問題。 2負梯度擬合 GBDT在函數空間中利用梯度下降法進行優化。在GBDT的迭代中,假設前一輪迭代得到的強學習器是ft-1(x)損失函數是L(y,ft-1(x)) 。本輪迭代的目標是找到一個CART迴歸樹模型的弱學習器ht(x),讓本輪的損失L(t,ft-1(x)+ht(
相關文章
相關標籤/搜索