在調參時xgboost/gbdt爲什麼樹的深度很少就能達到很高的精度?

在調參時xgboost/gbdt爲什麼樹的深度很少就能達到很高的精度?   RF和GBDT都是屬於集成學習的範疇。集成學習下有兩個重要的策略Bagging和Boosting。一句話的解釋,來自周志華老師的機器學習教科書:Boosting主要關注降低偏差,因此Boosting能基於泛化性能相當弱的學習器構建出很強的集成;Bagging主要關注降低方差,因此它在不剪枝的決策樹、神經網絡等學習器上效用更
相關文章
相關標籤/搜索