CNN激活函數與選擇經驗,CNN層級結構與典型CNN

1. 激活函數網絡 2.激勵層選擇函數的經驗:函數 (1) 儘可能不要使用Sigmoid;學習 (2) 首先試用ReLU,緣由是快,但須要當心;3d (3) 若是(2)失效,使用Leaky ReLU或Maxout;blog (4) 某些狀況下,tanh到有不錯的結果,可是這種狀況比較的少。io 3. 卷積神經網絡的層級結構:class 數據輸入層  Input Layer 卷積計算層  CONV
相關文章
相關標籤/搜索