2020年深度學習激活函數最全盤點和解釋

文章目錄 一、tf.nn.sigmoid: 二、tf.nn.softmax: 三、tf.nn.tanh: (主流)四、tf.nn.relu: 五、tf.nn.leaky_relu: 六、tf.nn.elu: 七、tf.nn.selu: 八、tf.nn.swish: 一、tf.nn.sigmoid: 將實數壓縮到0到1之間,一般只在二分類的最後輸出層使用。主要缺陷爲存在梯度消失問題,計算複雜度高,輸
相關文章
相關標籤/搜索