前戲
html
本文介紹一類開源項目:MobileNet-YOLOv3。其中分享Caffe、Keras和MXNet三家框架實現的開源項目。git
看名字,就知道是MobileNet做爲YOLOv3的backbone,這類思路家常便飯,好比典型的MobileNet-SSD。固然了,MobileNet-YOLOv3講真仍是第一次據說。github
MobileNet和YOLOv3windows
MobileNet網絡
MobileNet目前有v1和v2兩個版本,毋庸置疑,確定v2版本更強。但本文介紹的項目暫時都是v1版本的,固然後續再加入v2應該不是很難。這裏只簡單介紹MobileNetv1(非論文解讀)。框架
創新亮點:Depthwise Separable Convolution(深度可分離卷積)ide
Tricks:寬度因子和分辨率因子性能
MobileNetv1在ImageNet上的實驗結果網站
MobileNet在計算量,存儲空間和準確率方面取得了很是不錯的平衡。與VGG16相比,在很小的精度損失狀況下,將運算量減少了30倍。3d
YOLOv3
以前推過幾篇關於YOLOv3的文章,你們點擊便可看到:
YOLOv3:你必定不能錯過
重磅:TensorFlow實現YOLOv3(內含福利)
利用OpenCV玩轉YOLOv3
在Titan X上,YOLOv3在51 ms內實現了57.9的AP50,與RetinaNet在198 ms內的57.5 AP50至關,性能類似但速度快3.8倍。
創新亮點:DarkNet-5三、Prediction Across Scales、多標籤多分類的邏輯迴歸層
Tricks:多尺度訓練,大量的data augmentation
DarkNet-53網絡結構
MobileNetv1在COCO上的實驗結果
MobileNet-YOLO
【0】Caffe實現
連接:
https://github.com/eric612/MobileNet-YOLO
windows版:
https://github.com/eric612/Caffe-YOLOv3-Windows
安裝教程和源碼你們直接根據上述網站,自行摸索吧,這裏直接看一下實驗結果:正常版本和Lite版本在mAP上都強於YOLOv3-Tiny,且參數更少,但不知道速度如何。
【1】Keras實現
連接:
https://github.com/Adamdad/keras-YOLOv3-mobilenet
該開源項目的Adamdad大佬並無給出實驗結果,仍是要respect!
【2】MXNet實現
連接1:
https://gluon-cv.mxnet.io/model_zoo/detection.html#yolo-v3
連接2:
https://github.com/dmlc/gluon-cv/tree/master/gluoncv/model_zoo/yolo
連接3:
https://github.com/sufeidechabei/gluon-mobilenet-yolov3
連接1和2是MXNet官網開源的,連接3是sufeidechabei大佬我的開源的。
申明一下,MXNet這個版本,是在我寫這篇文章前20個小時剛剛push的,官網上還查不到實驗結果。相信必定很贊,爲何呢,你接着往下看。
既然看不到MXNet版本的MobileNet-YOLOv3的實驗結果,那咱們看看MXNet版本的YOLOv3在COCO上的實驗結果。
你們是否是注意到了,MXNet版本中的YOLOv3比原版darnet版本的YOLOv3檢測效果更好。爲何呢?由於加了不少tricks,有哪些能夠提升mAP的tricks,你們能夠看一下今天推的次條文章。
sufeidechabei大佬開源的MobileNet-YOLOv3實驗結果:
參考
Redmon, Joseph, and Ali Farhadi. 「Yolov3: An incremental improvement.」 arXiv preprint arXiv:1804.02767 (2018).