bagging與boosting

爲了更好地對數據進行預測,通常要用到模型融合,模型融合算法成功的關鍵在於能保證弱分類器的多樣性(diversity)。融合不穩定的學習算法能得到更明顯的性能提升。 最基本的模型融合方式有voting和averaging。Voting爲投票法,是針對分類問題;Averaging是平均法,針對迴歸問題。 模型融合方法有bagging和boosting 1.Bagging 方法 通過K次的有放回抽樣,訓
相關文章
相關標籤/搜索