機器學習sklearn之集成學習(二)

GBDT概述 GBDT算法在實際應用中深受大衆的喜愛,不同於Adaboost(利用前一輪弱學習器的誤差率來更新訓練集的誤差權重),GBDT採用的是前向分步算法,但是弱學習器則限定了CART決策樹模型。 GBDT的通俗理解是:假如一所房屋的價格是100萬,我們先用80萬去擬合,發現損失20萬,這時我們用15萬去擬合發現損失5萬,接着我們使用4萬去擬合返現損失1萬,這樣一直迭代下去,使得損失誤差一直減
相關文章
相關標籤/搜索