Neural Networks and Deep Learning

3.6 Activation Function sigmoid: a=11+e−z a = 1 1 + e − z 取值在(0,1)之間,除非是二分類的輸出層,一般不選用,因爲 tanh t a n h 比sigmoid表現要好。 tanh: a=ez−e−zez+e−z a = e z − e − z e z + e − z 取值在(-1,1),有數據中心化效果,使得網絡的訓練更容易,因此表現比
相關文章
相關標籤/搜索