基於Bagging與boosting的算法3---GBDT

他也是一棵提升樹 第四部分:總結 百度:機器學習中損失函數及其梯度 每步優化一個損失函數 加法模型:每次在損失上增加,減小損失。 決策樹既可以做分類,也可以做迴歸 迴歸問題的提升樹,算最小均方差就可以了。 知道就可以 GBDT是一個提升樹—處理數據量比較大的問題,通過GBDT處理原始數據(梯度提升樹,可以對數據進行分類,將分類好的數據交給邏輯迴歸,GBDT+LR例子) gbdt+lr 參考網上GB
相關文章
相關標籤/搜索