從39x39x3的原始圖像 不填充且步長爲1的狀況下通過3x3的10個filter卷積後 獲得了網絡
37x37x10的數據 不填充且步長爲2的狀況下通過5x5的20個filter卷積後 獲得了3d
17x17x20的數據 不填充且步長爲2的狀況下通過5x5的40個filter卷積後 獲得了blog
7x7x40的最終結果原理
將7x7x40的卷積層所有展開做爲輸入特徵,創建一個輸入層單元數爲1960的神經網絡便可神經網絡
1.Conv卷積層如上圖所見im
2.Pool池化層d3
3.FullyConnected全鏈接層數據
池化層的做用:縮減模型大小,提升計算速度,加強提取特徵的魯棒性filter
最大池化層,顧名思義,就是把每次filter的卷積過程換爲對區域內的全部數字求最大值的過程,如上圖所示,在指定filter大小和步長s後能夠獲得最終的結果爲2x2,而後每次求不一樣區域內的最大值便可。img
平均池化層,這種池化層的應用要比最大池化層少。通常應用於很深的網絡中,好比上淺層的信道層的網絡等,原理與最大池化層相同,只是每次對filter的區域求平均值。
注意:
通常而言,池化層的超參數只有filter的大小f和步長s,在池化層中通常不用填充padding,所以p通常爲0。
堆疊的池化層操做與卷積操做相同,對每一個信道單獨求max/average而後堆疊便可。