交叉熵損失cross entropy loss

我們一般在迴歸問題中,損失函數經常會用到MSE(mean squared error),而在分類問題中,我們經常會用到CrossEntropy。我們經常把它與softmax一起用,因爲我們用交叉熵計算出來的值不一定是在[0,1]之間,我們通常用softmax歸一到0-1之間,這樣我們可以進行物體的分類。 這裏,yi是預測值,y’i是label 我們爲什麼要使用交叉熵呢? 比如我們給你兩組數據 那麼
相關文章
相關標籤/搜索