爲什麼adaboost算法中每次放大權重都會使分類錯誤樣本權重的累加達到0.5?

在看adaboost算法示例的時候忽然發現一個有趣的現象,每次更新完樣本權值以後,分類錯誤的樣本的權值累加都會更新到0.5.我想着多是由於若是分類錯誤率爲0.5,對於二分類問題來講就至關於隨便猜猜了,而這裏採用的弱學習器再怎麼樣也比隨便猜猜強吧!因而學習器的性能就獲得了提高.可是它是怎麼作到的呢?算法 對分類錯誤的樣本的權重作累加:性能
相關文章
相關標籤/搜索