機器學習面試常考知識之激活函數

神經網絡的知識 激活函數 常用的激活函數有sigmoid、tanh、ReLu、LeakyReLU等   爲什麼需要激活函數(這裏說的激活函數一般指非線性激活),假設不用激活函數(相當於激活函數fx=x),這是每一層的節點的輸入都是上一層輸出的線性函數,很容易證明,無論神經網絡有多少層,輸出都是輸入的線性組合,與沒有隱含層的效果相當,這種情況就是原始的感知器(Perceptron),那麼網絡的逼近能
相關文章
相關標籤/搜索