Rethinking分類&迴歸損失

前言 一般說到多分類問題,我們很自然地會採用softmax交叉熵損失,而談到迴歸問題,我們可能會選擇MSE這樣的損失。但有一天,我們也許想知道二者之間是否真的就涇渭分明,能否把交叉熵損失用於迴歸任務,或者把MSE損失用於分類任務呢。這麼想不是沒有道理的,畢竟我們可以把多分類問題,看做是離散的迴歸問題,或者把迴歸問題,看做是無窮多類別下的分類問題。 討論1 模型輸出的logits,經過softmax
相關文章
相關標籤/搜索