卷積神經網絡 基礎

https://www.cnblogs.com/wj-1314/p/9754072.html 激活函數:常用的激活函數有sigmoid、tanh、relu等等,前兩者sigmoid/tanh比較常見於全連接層,後者ReLU常見於卷積層。 在卷積神經網絡中,激活函數一般用ReLU(The Rectified Linear Unit,修正線性單元) 收斂快,求梯度簡單。 計max(0,T),就是如果這
相關文章
相關標籤/搜索