tf.nn 激活函數

tf.nn.sigmoid() tf.nn.tanh() tanh函數解決了Sigmoid函數的不是zero-centered輸出問題,但梯度消失(gradient vanishing)的問題和冪運算的問題仍然存在。 tf.nn.relu() tf.nn.relu(features, name=None) 這個函數的作用是計算激活函數 relu,即 max(features, 0)。將大於0的保持
相關文章
相關標籤/搜索