AdaBoosting and Stacking

集成學習-boosting 第一次沒被擬合的點,增強學習 基於同一組數據 但是每個子模型認爲的每個點的權重不同 key:gbdt 用於迴歸效果比較好 value:每一顆樹學習的是之前樹的殘差相當於變相增大分錯部分的權重。 缺點:不利於並行化;計算複雜度高,不適合高維稀疏特徵 改進:XGboost 並行多線程;剪紙;控制了複雜度(加入正則項-樹葉節點數+score的L2範數) Shrinkage(縮
相關文章
相關標籤/搜索