《統計學習方法》筆記八 提高方法 [轉]Adaboost 算法的原理與推導

本系列筆記內容參考來源爲李航《統計學習方法》html

參考:算法

[轉]Adaboost 算法的原理與推導網絡

補充提高樹內容post

GBDT:梯度提高決策樹

Boosting主要關注下降誤差,所以Boosting能基於泛化性能至關弱的學習器構建出很強的集成,Bagging主要關注下降方差,所以它在不剪枝的決策樹、神經網絡等學習器上效用更加明顯。性能

參考:學習

https://www.jianshu.com/p/005a4e6ac775url

相關文章
相關標籤/搜索