深度學習與PyTorch筆記18

交叉熵(cross entropy loss) Entropy 熵,不確定性,entropy,uncertainty,measure of surprise,higher entropy=less info,定義: E n t r o p y = − ∑ i p ( i ) l o g P ( i ) Entropy=-\sum_{i}p(i)logP(i) Entropy=−i∑​p(i)log
相關文章
相關標籤/搜索