損失函數--KL散度與交叉熵

損失函數 ​ 在邏輯迴歸建立過程中,我們需要一個關於模型參數的可導函數,並且它能夠以某種方式衡量模型的效果。這種函數稱爲損失函數(loss function)。 ​ 損失函數越小,則模型的預測效果越優。所以我們可以把訓練模型問題轉化爲最小化損失函數的問題。 ​ 損失函數有多種,此次介紹分類問題最常用的交叉熵(cross entropy)損失,並從信息論和貝葉斯兩種視角闡釋交叉熵損失的內涵。 K-L
相關文章
相關標籤/搜索