不平衡樣本的處理

不平衡樣本的處理 機器學習中經典假設中往往假定訓練樣本各類別是同等數量即各類樣本數目是均衡的,但是真實場景中遇到的實際問題卻常常不符合這個假設。一般來說,不平衡樣本會導致訓練模型側重樣本數目較多的類別,而「輕視」樣本數目較少類別,這樣模型在測試數據上的泛化能力就會受到影響。一個例子,訓練集中有99個正例樣本,1個負例樣本。在不考慮樣本不平衡的很多情況下,學習算法會使分類器放棄負例預測,因爲把所有樣
相關文章
相關標籤/搜索