SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size git
論文地址: Arxiv Paper github
Github: Caffe ide
設計理念: 模塊化
1x1conv的參數量是3x3conv的1/9 spa
在expand 中用部分conv1x1替換3x3,目的是爲了避免影響Accuracy.net
經過squeeze 中conv1x1對expand的輸入進行降維,即減小expand對應的ic設計
前面的layers有更大的特徵圖,有利於提高模型的Accuracy blog
downsampling的方法:strides>1的卷積層,pooling layer get
Fire Module input
模塊化卷積 key points:
Network structure
參數詳細說明
輸入55x55x96, 輸出55x55x128
參數量: 128x96x3x3 = 110,592 (不明白Table1中爲何是11920?)
Squeeze conv1x1: 96x16x1x1
Expand conv1x1: 16x64x1x1
Expand conv3x3: 16x64x3x3x 1/3(sparsity)
參數量:96x16x1x1 + 16x64x1x1 + 16x64x3x3x 1/3 = 4,096 (也不是Table1中的5746?)
Reference