【傻瓜攻略】深入學習入門之激活函數(四)

參考:http://cs231n.github.io/neural-networks-1/ 2.tanh(反正切)函數 這個函數的取值範圍爲[-1,+1],其實看圖也可以發現這個函數與上一章所述的sigmoid函數類似,但是由於這個函數是0對稱的,所以實際應用中tanh的效果會略好於sigmoid函數  另外它的求導函數也是很簡單,所以應用還是很方便的。 3.ReLU(Rectified Line
相關文章
相關標籤/搜索