DeepLearning學習筆記之ReLU函數

1、什麼是稀疏激活函數(ReLU)算法 ReLU全稱是Rectified Liner Uints,其具體形式爲y=max(0,x)。網絡         ReLU具備:一、單側抑制;二、相對寬闊的興奮邊界;三、稀疏激活性等優勢。架構 2、爲何ReLU更有效?函數   生物研究代表:生物神經元只對輸入信號中不多部分進行響應,大部分信號則被刻意屏蔽掉了。這樣作能夠更好的提升學習精度,更好更快的提取稀疏
相關文章
相關標籤/搜索