機器學習--bagging和boosting的思想簡述以及各自的代表模型原理

1.bagging bagging算法是很基礎的集成學習的方法,他的提出是爲了增強分類器效果,但是在處理不平衡問題上卻有很好的效果。 如上圖,原始數據集通過T次隨機採樣,得到T個與原始數據集相同大小的子數據集,分別訓練得到T個弱分類器Classifier,然後結合爲一個強分類器。 以下給出隨機採樣的概率解釋及效果分析: 採用的是概率論裏面的booststrap思想,由於小樣本估計的不準確性,再加上
相關文章
相關標籤/搜索