- 卷積(每次卷積完以後+Relu(非線性))
卷積核的深度和輸入圖像深度一致,有多少個卷積核,就獲得多少張特徵圖,也就是獲得的特徵圖的深度。ide
1個卷積核的卷積過程:3d
stride越小獲得的特徵越豐富/多,可是考慮效率的問題,stride通常不會設置爲1,stride太大會損失不少信心。blog
padding能更好得利用邊緣信息,特徵圖大小計算:class
權重共享,一個特徵圖,參數數量=filter大小+b,多個特徵圖=n*(filter+b)大小效率
- 池化Pooling layer(對特徵圖壓縮)(下采樣)(沒有w參數)
mean Pooling:池化核中(框選特徵),全部值取均值im
max Pooling:池化核中,取最大的值。總結
總結:filter