神經網絡經典損失函數-交叉熵和均方偏差

在神經網絡中,如何判斷一個輸出向量和指望的向量有多接近呢?交叉熵(cross entropy)是經常使用的方法之一,刻畫了兩個機率分佈之間的距離,是分類問題中使用較多的一種損失函數。 給定兩個機率分佈p和q,經過q來表示p的交叉熵爲: 如何將神經網絡前向傳播獲得的結果也變成機率分佈,比較經常使用的方法爲Softmax迴歸。 Softmax迴歸自己能夠做爲一個學習算法來優化分類結果,但在Tensor
相關文章
相關標籤/搜索