爲何adaboost算法中每次放大權重都會使分類錯誤樣本權重的累加達到0.5?

在看adaboost算法示例的時候突然發現一個有趣的現象,每次更新完樣本權值之後,分類錯誤的樣本的權值累加都會更新到0.5.我想着可能是因爲如果分類錯誤率爲0.5,對於二分類問題來說就相當於隨便猜猜了,而這裏採用的弱學習器再怎麼樣也比隨便猜猜強吧!於是學習器的性能就得到了提升.但是它是怎麼做到的呢? 對分類錯誤的樣本的權重做累加:
相關文章
相關標籤/搜索