【吳恩達深度學習專欄】淺層神經網絡(Shallow neural networks)——激活函數(Activation functions)

文章目錄 3.6 激活函數(Activation functions) 3.6 激活函數(Activation functions) 使用一個神經網絡時,需要決定使用哪種激活函數用隱藏層上,哪種用在輸出節點上。到目前爲止,之前的視頻只用過sigmoid激活函數,但是,有時其他的激活函數效果會更好。 事實上,tanh函數是sigmoid的向下平移和伸縮後的結果。對它進行了變形後,穿過了(0,0)點,
相關文章
相關標籤/搜索