Rectified Linear Units, 線性修正單元激活函數

轉自: https://blog.csdn.net/Jkwwwwwwwwww/article/details/52816433 ReLU 在神經網絡中,常用到的激活函數有sigmoid函數: f(x)=11+e−xf(x)=11+e−x 雙曲正切函數: f(x)=tanh(x)f(x)=tanh(x) 而本文要介紹的是另外一種激活函數,Rectified Linear Unit Function(
相關文章
相關標籤/搜索