卷積神經網絡CNN【3】非線性激活層Relu層

【3】非線性激活層Relu 卷積後產生的特徵圖中的值,越靠近1表示與該特徵越關聯,越靠近-1表示越不關聯,而我們進行特徵提取時,爲了使得數據更少,操作更方便,就直接捨棄掉那些不相關聯的數據。 ①>=0的值不變 ②而<0的值一律改寫爲0 經過Relu函數後
相關文章
相關標籤/搜索