SVM和logistic迴歸分別在什麼狀況下使用?

這兩種算法都是常見的分類算法,從目標函數來講,區別在於logistic迴歸採用的是log對數損失函數L(Y,P(Y|X))=-log(P(Y|X)),SVM採用的是hingle loss.損失函數的目的都是增長對分類影響較大的數據點的權重,減少對分類影響小的數據點的權重。 SVM只考慮support vectors,也就是和分類最相關的少數點,去學習分類器。而logistic迴歸經過非線性映射,大
相關文章
相關標籤/搜索