交叉熵與KL散度

Welcome To My Blog 老遇到交叉熵作爲損失函數的情況,於是總結一下 KL散度 交叉熵從KL散度(相對熵)中引出,KL散度(Kullback-Leibler Divergence)公式爲: KL散度是衡量兩個分佈之間的差異大小的,KL散度大於等於0,並且越接近0說明p與q這兩個分佈越像,當且僅當p與q相等時KL散度取0. 交叉熵 在機器學習的分類問題中,常以交叉熵作爲損失函數,此時同
相關文章
相關標籤/搜索