(CNN)卷積神經網絡(二)

卷積計算層 1.1卷積的通俗理解-爲什麼參數會大大減少 1.2卷積的計算 ReLu激勵層/ReLu layer 2.1 爲什麼要用激勵層? 2.2 sigmoid函數 2.3 tanh函數 2.4 RELU 2.5 Leaky-Relu 2.6 maxout 2.7 所有激活函數彙總 上一篇文章((CNN)卷積神經網絡(一))說了卷積神經網絡的層級結構和數據輸入層的數據具體是怎麼處理的,以及權值應
相關文章
相關標籤/搜索