機器學習系列之GBDT

GBDT既可以用於迴歸,也可以用於分類。兩者本質是一樣的,分析流程也大致相同,區別在於loss function不同。 首先,介紹一下提升方法,boosting就是把一系列的弱學習器反覆學習,然後組合成強學習器。對於提升方法,主要需要回答兩個問題:第一個是每一輪學習過程中如何改變訓練數據的權值或概率分佈;第二個就是如何將弱分類器組合成強分分類器。 在前面講到的Adaboost中,根據每次訓練數據的
相關文章
相關標籤/搜索