重新理解深度學習裏分類用的的softmax函數

首先,看看在網絡結構裏的位置。 爲什麼softmax是這種形式。 首先,我們知道概率有兩個性質: 1)預測的概率爲非負數; 2)各種預測結果概率之和等於1。    從圖的樣子上看,和普通的全連接方式並無差異,但激勵函數的形式卻大不一樣。   首先後面一層作爲預測分類的輸出節點,每一個節點就代表一個分類,如圖所示,那麼這7個節點就代表着7個分類的模型,任何一個節點的激勵函數都是:   其中就是節點
相關文章
相關標籤/搜索