【Deep Learning筆記】神經網絡的優化解讀(看不懂你來打我~!)

文章目錄 1 激活函數 1.1 sigmoid 1.2 tanh 1.3 ReLU函數 1.4 ReLU函數的變種 2 Dropout 2.1 原理 2.2 實驗 2.3 作者重點分析的一些特點 1 激活函數 1.1 sigmoid 1.2 tanh 優缺點: 引入更簡單更高效的函數: 1.3 ReLU函數 softplus導數正好爲sigmoid。 1.4 ReLU函數的變種 2 Dropout
相關文章
相關標籤/搜索