Adaboost

這個是周志華老師的機器學習書裏面的公式,表明如果基礎分類器是弱分類器的 情況下,集成之後效果的效果會更好,因爲我們從公式中可以看到,基分類器的數目T增長的時候,錯誤率是指數級下降的。 這個公式是怎麼來的呢? 這個是周志華老師機器學習裏的課後習題,現在咱們就來證明一下 到此我們對集成的直觀理解是,如果我們有很多基分類器,他們之間獨立,讓他們各自預測之後,通過投票產生結果,如果數量足夠多,那我們正確的
相關文章
相關標籤/搜索