訓練分類器爲什麼要用cross entropy loss(交叉熵損失函數)而不能用mean square error loss(MSE,最小平方差損失函數)?

在一個人工智能羣裏,有人問起,訓練分類器爲什麼要用cross entropy loss(交叉熵損失函數)而不能用mean square error loss(MSE,最小平方差損失函數)呢? 正好,在我的那本《深度學習之美》(第11章)提及這個問題,於是複製了一部分內容,作爲回答,羣裏的同學覺得通俗易懂,於是,把我的回答貼到這裏,算是一個總結: --------- 對於多分類的標籤(即教師信號),
相關文章
相關標籤/搜索