論文地址:https://arxiv.org/abs/1602.07360
模型地址:https://github.com/DeepScale/SqueezeNetgit
1. 論文思想
提出一種新的卷積組合方式替代原來的3*3的卷積。相似於bottleneck layer減小參數數目。可是不太像MobileNet是提出了一種新的卷積計算方式來減小參數,加速計算。github
2. 網絡結構設計策略
- 用3*3的替代1*1的filter。 (NiN, GoogLeNet)
- 減小3*3的輸入channel數目。 (bottleneck layer)
- 延遲下采樣(so that convolution layers have large activation maps. (He & Sun)
3. 組合方式
![](http://static.javashuo.com/static/loading.gif)
squeeze中的1*1的卷積爲了減小輸入到3*3中的channel數目網絡
expand中的1*1和3*3的卷積,也算是一種效果的綜合吧。(不能全是3*3的,否則論文就沒有什麼創新了。不能全是1*1的卷積,估計會影響效果。)設計
4. 網絡結構
![](http://static.javashuo.com/static/loading.gif)
- SqueezeNet
- SqueezeNet with simple bypass(相似於ResNet,由於要作加操做,要求兩個輸入的channel num同樣,因此只能在某些層加bypass)
- SqueezeNet with complex bypass(添加1*1的卷積,打破上面那個限制)
![](http://static.javashuo.com/static/loading.gif)
- compression info 應用的是Deep compression裏面的稀疏性和量化的方法。
5. 組合方式探索
探索了幾個超參數不一樣組合方式對網絡大小以及準確率的影響。3d
結果blog
![](http://static.javashuo.com/static/loading.gif)
6. 總結
- 在AlexNet上實現了50x的縮減,模型大小小於0.5MB。
- 探索較深網絡的時候,能夠嘗試這種方法。
- 又是一篇在1*1的卷積上作工做的文章。(MobileNet, ShuffleNet)