GBDT與XGBoost【基於負梯度擬合】的說明

爲了不讓自己在深度學習的網絡裏迷失…嗝~~,回顧了一下機器學習 相信大家看到集成學習的時候,類似於adaboost等思路還是挺清晰的,BDT裏面的基於擬合殘差思想也好理解,但是碰到gbdt時候有點矇蔽【只針對小白,大佬繞行…】----這怎麼就變成了根據損失函數的負梯度擬合呢,(編輯公式有點煩,我就把pad筆記拿上來) 說明:t是更新到第t次的意思,i是樣本標記,爲什麼不寫xgboost?,因爲xg
相關文章
相關標籤/搜索