爲什麼採用激活函數

爲什麼要使用sigmoid,tanh,ReLU等非線性函數? 這個原因大家都知道,爲了增加非線性唄! 深度學習的目的是用一堆神經元堆出一個函數大致的樣子,然後通過大量的數據去反向擬合出這個函數的各個參數,最終勾勒出函數的完整形狀。 那如果激活函數只是線性函數,那一層層的線性函數堆起來還是線性的,這年頭線性函數能幹啥呀? 肯定不行,這樣整個網絡表現能力有限,所以要引入非線性的激活函數進來。 那爲什麼
相關文章
相關標籤/搜索