卷積原理與操做

  • 卷積(每次卷積完以後+Relu(非線性))

卷積核的深度和輸入圖像深度一致,有多少個卷積核,就獲得多少張特徵圖,也就是獲得的特徵圖的深度。ide

1個卷積核的卷積過程:3d

stride越小獲得的特徵越豐富/多,可是考慮效率的問題,stride通常不會設置爲1,stride太大會損失不少信心。blog

padding能更好得利用邊緣信息,特徵圖大小計算:class

權重共享,一個特徵圖,參數數量=filter大小+b,多個特徵圖=n*(filter+b)大小效率

  • 池化Pooling layer(對特徵圖壓縮)(下采樣)(沒有w參數)

mean Pooling:池化核中(框選特徵),全部值取均值im

max Pooling:池化核中,取最大的值。總結

總結:filter

相關文章
相關標籤/搜索