tensorflow學習筆記(2):激活函數

官方解釋: http://www.tensorfly.cn/tfdoc/api_docs/python/nn.html tf.nn.relu(features, name=None) ReLU由於非負區間的梯度爲常數,因此不存在梯度消失問題(Vanishing Gradient Problem),使得模型的收斂速度維持在一個穩定狀態。 優點: 收斂速度會比 sigmoid/tanh 快。 缺點:
相關文章
相關標籤/搜索