【TensorFlow學習筆記(二)】經常使用方法:激活函數

更新時間:2019-06-07 激活函數 tf.nn.relu() ReLU函數,修正線性單元,在卷積神經網絡中應用普遍,定義以下: (1) R e L U ( x ) = m a x ( 0 , x ) ReLU(x)=max(0,x) \tag{1} ReLU(x)=max(0,x)(1) ReLU函數具備以下性質: 優勢: (1)計算高效:採用ReLU函數的神經元只須要進行加、乘和比較的操做
相關文章
相關標籤/搜索