機器學習基礎知識點①:LR、SVM、樸素貝葉斯

1、樣本不平衡的解決方法? 1)上採樣和子採樣;2)修改權重(修改損失函數);3)集成方法:bagging,類似隨機森林、自助採樣;4)多任務聯合學習; 2、交叉熵函數系列問題?與最大似然函數的關係和區別? 1)交叉熵損失函數的物理意義:用於描述模型預測值與真實值的差距大小; 2)最小化交叉熵的本質就是對數似然函數的最大化; 3)對數似然函數的本質就是衡量在某個參數下,整體的估計和真實情況一樣的概
相關文章
相關標籤/搜索