使用隨機森林計算特徵重要度

隨機森林包含不少決策樹,決策樹中的每個節點是某一個特徵的條件。這些條件用來將數據集分紅兩部分,使得每一部分的響應值歸爲同一個集合。最優條件的選擇依據是不純度。不純度在分類中一般爲Gini不純度或信息增益/信息熵,對於迴歸問題來講是方差。 下面是兩種計算特徵重要度的方法: 1 基於sklearn的實現python from sklearn.datasets import load_boston fr
相關文章
相關標籤/搜索