深度學習基礎(一):sigmoid/softmax/cross Entropy

在分類中,首先對於Logistic迴歸: 從上圖可以看出, 很明顯,其輸出f(x;wb)主要是一些連續的實數,可以用於線性迴歸,但是對於分類問題無法進行直接進行分類預測,這裏需要引入非線性的決策函數g(.)—這裏我認爲就是激活函數,使其輸出從連續的實數轉換到一些離散的標籤。 對於激活函數,可分爲一下: 其中tanh、relu、以及leaky relu激活函數相比sigmoid和softmax不適用
相關文章
相關標籤/搜索