決策樹和隨機森林(下)

上次探究了深度對決策樹的影響,發現深度越大,容易發生過擬合 沒錯今天來說所謂的剪枝和隨機森林 剪枝總體思路: 由完全樹T0開始,剪枝部分結點得到T1,再次剪 枝部分結點得到T2…直到僅剩樹根的樹Tk; 在驗證數據集上對這k個樹分別評價,選擇損失 函數最小的樹Tα 首先了解上面是剪枝係數 但是主要用隨機森林算法來防止過擬合,也是決策樹的加強版 那什麼是隨機森林,就是多棵決策樹組成,對樣本和特徵隨便抽
相關文章
相關標籤/搜索