交叉熵損失函數(cross entropy loss)+softmax分類器

卷積神經網絡處理多分類問題時,通常選擇的損失函數是交叉熵損失函數(Cross Entropy Loss)。交叉熵表示的是模型實際輸出和期望輸出的差值,交叉熵的值越小,表明實際的輸出和期望的結果越相近,效果越好。 以識別手寫數字爲例,0~9共十個類別。識別數字1,神經網絡的輸出結果越接近[0,1,0,0,0,0,0,0,0,0]越好。交叉熵計算公式: 需要注意的是,交叉熵描述的是兩個概率分佈之間的距
相關文章
相關標籤/搜索