Bagging_AdaBoost提升方法

提升算法的基本思路 在概率近似正確的學習框架中 一個對象,如果存在一個多項式學習算法能夠學習,且準確率很高,那麼它是強可學習的。 如果是準確率比隨即猜測略好,那麼它是弱可學習的。 一個對象是強可學習的充要條件是該對象是弱可學習的。 弱可學習算法通常比強可學習的算法容易獲得。所以提升方法就是從弱學習算法出發,得道許多弱分類器,組合弱分類器,形成一個強分類器。(三個臭皮匠頂個諸葛亮。) Bagging
相關文章
相關標籤/搜索