pytorch中的CrossEntropyLoss()函數

分類問題中,交叉熵函數是比較常用也是比較基礎的損失函數,原來就是了解,但一直搞不懂他是怎麼來的?爲什麼交叉熵能夠表徵真實樣本標籤和預測概率之間的差值?趁着這次學習把這些概念系統學習了一下。 首先說起交叉熵,腦子裏就會出現這個東西:          隨後我們腦子裏可能還會出現Sigmoid()這個函數:         pytorch中的CrossEntropyLoss()函數實際就是先把輸出結果
相關文章
相關標籤/搜索