cross entropy的理解

文章目錄 公式: LG(logistics regression) Multi labels 參考: 簡單談談Cross Entropy Loss Cross Entropy 公式: 實際就是entropy與KL divergence的結合 離散: 連續: 總結:從熵的角度看,q(訓練得到的分佈)與p(數據實際的分佈)越遠,則對應的loss越大(p的熵不變,KL divergence越大)。 因此
相關文章
相關標籤/搜索