深度學習:**函數的比較和優缺點,sigmoid,tanh,relu

1、什麼是**函數 2、爲什麼要用 3、都有什麼**函數 4、sigmoid,Relu,softmax   1. 什麼是**函數   如下圖,在神經元中,輸入的 inputs 通過加權,求和後,還被作用了一個函數,這個函數就是**函數 Activation Function。 2. 爲什麼要用 如果不用激勵函數,每一層輸出都是上層輸入的線性函數,無論神經網絡有多少層,輸出都是輸入的線性組合。 如果
相關文章
相關標籤/搜索