卷積神經網絡CNN【3】非線性激活層Relu層

【3】非線性激活層Relu函數 Relu函數 f(x)=max(0,x) 非線性激活層即保留大於0的值,即保留特徵比較好的值,將特徵小於0的值捨去   卷積後通常先跟relu再跟池化。
相關文章
相關標籤/搜索