深度學習的激活函數分析---Sigmoid & ReLU & Softmax

1,初次接觸深度學習一定會遇到一個非常經典的例子 --- MNIST數據集的分析,這個例子也在以往的機器學習的神經網絡一章節有過使用。對於MNIST的處理屬於多分類的問題,對於深度學習來說就不得不瞭解激活函數的作用。     激活函數在三層的神經網絡中通常是隱藏層節點輸出結果輸入到輸出層時經歷的處理步驟。那我們現在就瞭解一下經典的三個激勵函數Sigmoid & ReLU & Softmax。 1,
相關文章
相關標籤/搜索