修正線性單元(Rectified linear unit,ReLU)

修正線性單元(Rectified linear unit,ReLU) Rectified linear unit 在神經網絡中,經常使用到的激活函數有sigmoid函數 f(x)=11+exp(−x) 、雙曲正切函數 f(x)=tanh(x) ,今天要說的是另一種activation function,rectified linear function, f(x)=max(0,x) ,web Th
相關文章
相關標籤/搜索