圖像處理池化層pooling和卷積核

一、池化層的做用網絡

在卷積神經網絡中,卷積層之間每每會加上一個池化層。池化層能夠很是有效地縮小參數矩陣的尺寸,從而減小最後全連層中的參數數量。使用池化層便可以加快計算速度也有防止過擬合的做用。 性能

二、爲何max pooling要更經常使用?設計

一般來說,max-pooling的效果更好,雖然max-pooling和average-pooling都對數據作了下采樣,可是max-pooling感受更像是作了特徵選擇,選出了分類辨識度更好的特徵,提供了非線性,根據相關理論,特徵提取的偏差主要來自兩個方面:(1)鄰域大小受限形成的估計值方差增大;(2)卷積層參數偏差形成估計均值的偏移。通常來講,average-pooling能減少第一種偏差,更多的保留圖像的背景信息,max-pooling能減少第二種偏差,更多的保留紋理信息。average-pooling更強調對總體特徵信息進行一層下采樣,在減小參數維度的貢獻上更大一點,更多的體如今信息的完整傳遞這個維度上,在一個很大頗有表明性的模型中,好比說DenseNet中的模塊之間的鏈接大多采用average-pooling,在減小維度的同時,更有利信息傳遞到下一個模塊進行特徵提取。io

三、哪些狀況下,average pooling比max pooling更合適?ast

average-pooling在全局平均池化操做中應用也比較廣,在ResNet和Inception結構中最後一層都使用了平均池化。有的時候在模型接近分類器的末端使用全局平均池化還能夠代替Flatten操做,使輸入數據變成一位向量。神經網絡

max-pooling和average-pooling的使用性能對於咱們設計卷積網絡仍是頗有用的,雖然池化操做對於總體精度提高效果也不大,可是在減參,控制過擬合以及提升模型性能,節約計算力上的做用仍是很明顯的,因此池化操做時卷積設計上不可缺乏的一個操做。map

四、1x1的卷積核有什麼做用?數據

1*1的卷積核在NIN、Googlenet中被普遍使用,交互

做用:
1. 實現跨通道的交互和信息整合
2. 進行卷積核通道數的降維和升維
3.對於單通道feature map 用單核卷積即爲乘以一個參數,而通常狀況都是多核卷積多通道,實現多個feature map的線性組合參數

四、能夠實現與全鏈接層等價的效果。如在faster-rcnn中用1*1*m的卷積核卷積n(如512)個特徵圖的每個位置(像素點),其實對於每個位置的1*1卷積本質上都是對該位置上n個通道組成的n維vector的全鏈接操做。

相關文章
相關標籤/搜索