爲什麼交叉熵能作爲損失函數及其彌補了平方差損失什麼缺陷

在很多二分類問題中,特別是正負樣本不均衡的分類問題中,常使用交叉熵作爲loss對模型的參數求梯度進行更新,那爲何交叉熵能作爲損失函數呢,我也是帶着這個問題去找解析的。 以下僅爲個人理解,如有不當地方,請讀到的看客能指出。 我們都知道,各種機器學習模型都是模擬輸入的分佈,使得模型輸出的分佈儘量與訓練數據一致,最直觀的就是MSE(均方誤差,Mean squared deviation), 直接就是輸出
相關文章
相關標籤/搜索