第二篇:對CART,Gradient Boost,Xgboost,LightGBM的學習

1、衡量決策樹(結果是離散的)劃分純度的方式(也就是劃分指標是否對數據進行最恰當地劃分):信息增益(ID3)、信息增益率(C4.5)、基尼係數(CART)等等。 2、迴歸樹的關鍵點、參數:(1)選取哪個feature分裂節點呢;(2)節點的預測值(總不能靠取平均值這麼粗暴不講道理的方式吧,好歹高級一點)。 3、確定分裂用的feature,how?最簡單的是粗暴的枚舉,選擇loss function
相關文章
相關標籤/搜索