常用激活函數的總結與比較

原文鏈接:點擊打開鏈接 ,點擊打開鏈接 本文結構: 什麼是激活函數 爲什麼要用 都有什麼 sigmoid ,ReLU, softmax 的比較 如何選擇 1. 什麼是激活函數 如下圖,在神經元中,輸入的 inputs 通過加權,求和後,還被作用了一個函數,這個函數就是激活函數 Activation Function。 2. 爲什麼要用 如果不用激勵函數,每一層輸出都是上層輸入的線性函數,無論神經網
相關文章
相關標籤/搜索