第二十八節、基於深度學習的目標檢測算法的綜述(附代碼,並附有一些算法英文翻譯文章連接))

 

在前面幾節中,咱們已經介紹了什麼是目標檢測,以及如何進行目標檢測,還說起了滑動窗口,bounding box、以及IOU,非極大值抑制等概念。php

這裏將會綜述一下當前目標檢測的研究成果,並對幾個經典的目標檢測算法進行概述,本文內容來自基於深度學習的目標檢測,在後面幾節裏,會具體講解每一種方法。html

在深度度學習的目標檢測算法興起以前,傳統的目標檢測算法是怎樣的呢?git

傳統的目標檢測通常使用滑動窗口的框架,主要包括三個步驟:github

  • 利用不一樣尺寸的滑動窗口框住圖中的某一部分做爲候選區域;
  • 提取候選區域相關的視覺特徵。好比人臉檢測經常使用的Harr特徵;行人檢測和普通目標檢測經常使用的HOG特徵等;
  • 利用分類器進行識別,好比經常使用的SVM模型。

傳統的目標檢測中,多尺度形變部件模型DPM(Deformable Part Model)[13]是出類拔萃的,連續得到VOC(Visual Object Class)2007到2009的檢測冠軍,2010年其做者Felzenszwalb Pedro被VOC授予」終身成就獎」。DPM把物體當作了多個組成的部件(好比人臉的鼻子、嘴巴等),用部件間的關係來描述物體,這個特性很是符合天然界不少物體的非剛體特徵。DPM能夠看作是HOG+SVM的擴展,很好的繼承了二者的優勢,在人臉檢測、行人檢測等任務上取得了不錯的效果,可是DPM相對複雜,檢測速度也較慢,從而也出現了不少改進的方法。正當你們熱火朝天改進DPM性能的時候,基於深度學習的目標檢測橫空出世,迅速蓋過了DPM的風頭,不少以前研究傳統目標檢測算法的研究者也開始轉向深度學習。算法

基於深度學習的目標檢測發展起來後,其實效果也一直難以突破。好比文獻[6]中的算法在VOC 2007測試集合上的mAP只能30%多一點,文獻[7]中的OverFeat在ILSVRC 2013測試集上的mAP只能達到24.3%。2013年R-CNN誕生了,VOC 2007測試集的mAP被提高至48%,2014年時經過修改網絡結構又飆升到了66%,同時ILSVRC 2013測試集的mAP也被提高至31.4%。網絡

R-CNN是Region-based Convolutional Neural Networks的縮寫,中文翻譯是基於區域的卷積神經網絡,是一種結合區域提名(Region Proposal)和卷積神經網絡(CNN)的目標檢測方法。Ross Girshick在2013年的開山之做《Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation》[1]奠基了這個子領域的基礎,這篇論文後續版本發表在CVPR 2014[2],期刊版本發表在PAMI 2015[3]。框架

其實在R-CNN以前已經有不少研究者嘗試用Deep Learning的方法來作目標檢測了,包括OverFeat[7],但R-CNN是第一個真正能夠工業級應用的解決方案,這也和深度學習自己的發展相似,神經網絡、卷積網絡都不是什麼新概念,但在本世紀忽然真正變得可行,而一旦可行以後再迅猛發展也不足爲奇了。機器學習

R-CNN這個領域目前研究很是活躍,前後出現了R-CNN[1,2,3,18]、SPP-net[4,19]、Fast R-CNN[14, 20] 、Faster R-CNN[5,21]、R-FCN[16,24]、YOLO[15,22]、SSD[17,23]等研究。Ross Girshick做爲這個領域的開山鼻祖老是神同樣的存在,R-CNN、Fast R-CNN、Faster R-CNN、YOLO都和他有關。這些創新的工做其實不少時候是把一些傳統視覺領域的方法和深度學習結合起來了,好比選擇性搜索(Selective Search)和圖像金字塔(Pyramid)等。函數

深度學習相關的目標檢測方法也能夠大體分爲兩派:post

  • 基於區域提名的,如R-CNN、SPP-net、Fast R-CNN、Faster R-CNN、R-FCN;
  • 端到端(End-to-End),無需區域提名的,如YOLO、SSD。

目前來講,基於區域提名的方法依然佔據上風,但端到端的方法速度上優點明顯,後續的發展拭目以待。

一 相關研究

本文做爲目標檢測的一篇回顧,先來看看目標檢測中普遍使用的區域提名——選擇性搜索,以及用深度學習作目標檢測的早期工做——Overfeat 。

一、選擇性搜索(Selective Search)

目標檢測的第一步是要作區域提名(Region Proposal),也就是找出可能的感興趣區域(Region Of Interest, ROI)。區域提名相似於光學字符識別(OCR)領域的切分,OCR切分經常使用過切分方法,簡單說就是儘可能切碎到小的連通域(好比小的筆畫之類),而後再根據相鄰塊的一些形態學特徵進行合併。但目標檢測的對象相比OCR領域千差萬別,並且圖形不規則,大小不一,因此必定程度上能夠說區域提名是比OCR切分更難的一個問題。

區域提名可能的方法有:

  • 滑動窗口。滑動窗口本質上就是窮舉法,利用不一樣的尺度和長寬比把全部可能的大大小小的塊都窮舉出來,而後送去識別,識別出來機率大的就留下來。很明顯,這樣的方法複雜度過高,產生了不少的冗餘候選區域,在現實當中不可行。
  • 規則塊。在窮舉法的基礎上進行了一些剪枝,只選用固定的大小和長寬比。這在一些特定的應用場景是頗有效的,好比拍照搜題APP小猿搜題中的漢字檢測,由於漢字方方正正,長寬比大多比較一致,所以用規則塊作區域提名是一種比較合適的選擇。可是對於普通的目標檢測來講,規則塊依然須要訪問不少的位置,複雜度高。
  • 選擇性搜索。從機器學習的角度來講,前面的方法召回是不錯了,可是精度差強人意,因此問題的核心在於如何有效地去除冗餘候選區域。其實冗餘候選區域大可能是發生了重疊,選擇性搜索利用這一點,自底向上合併相鄰的重疊區域,從而減小冗餘。

區域提名並不僅有以上所說的三種方法,實際上這塊是很是靈活的,所以變種也不少,有興趣的讀者不妨參考一下文獻[12]。

選擇性搜索的具體算法細節[8]如算法1所示。整體上選擇性搜索是自底向上不斷合併候選區域的迭代過程。

輸入: 一張圖片
 
輸出:候選的目標位置集合L

算法:

1: 利用過切分方法獲得候選的區域集合R = {r1,r2,…,rn}

2: 初始化類似集合S = ϕ

3: foreach 鄰居區域對(ri,rj) do

4:     計算類似度s(ri,rj)

5:     S = S  ∪ s(ri,rj)

6: while S not=ϕ do

7:     獲得最大的類似度s(ri,rj)=max(S)

8:     合併對應的區域rt = ri ∪ rj

9:     移除ri對應的全部類似度:S = S\s(ri,r*)

10:    移除rj對應的全部類似度:S = S\s(r*,rj)

11:    計算rt對應的類似度集合St

12:    S = S ∪ St

13:    R = R ∪ rt

14: L = R中全部區域對應的邊框

從算法不難看出,R中的區域都是合併後的,所以減小了很多冗餘,至關於準確率提高了,可是別忘了咱們還須要繼續保證召回率,所以算法1中的類似度計算策略就顯得很是關鍵了。若是簡單採用一種策略很容易錯誤合併不類似的區域,好比只考慮輪廓時,不一樣顏色的區域很容易被誤合併。選擇性搜索採用多樣性策略來增長候選區域以保證召回,好比顏色空間考慮RGB、灰度、HSV及其變種等,類似度計算時既考慮顏色類似度,又考慮紋理、大小、重疊狀況等。

整體上,選擇性搜索是一種比較樸素的區域提名方法,被早期的基於深度學習的目標檢測方法(包括Overfeat和R-CNN等)普遍利用,但被當前的新方法棄用了。

二、OverFeat

OverFeat[7][9]是用CNN統一來作分類、定位和檢測的經典之做,做者是深度學習大神之一————Yann Lecun在紐約大學的團隊。OverFeat也是ILSVRC 2013任務3(分類+定位)的冠軍得主[10]。

OverFeat的核心思想有三點:

  • 區域提名:結合滑動窗口和規則塊,即多尺度(multi-scale)的滑動窗口;
  • 分類和定位:統一用CNN來作分類和預測邊框位置,模型與AlexNet[12]相似,其中1-5層爲特徵抽取層,即將圖片轉換爲固定維度的特徵向量,6-9層爲分類層(分類任務專用),不一樣的任務(分類、定位、檢測)公用特徵抽取層(1-5層),只替換6-9層;
  • 累積:由於用了滑動窗口,同一個目標對象會有多個位置,也就是多個視角;由於用了多尺度,同一個目標對象又會有多個大小不一的塊。這些不一樣位置和不一樣大小塊上的分類置信度會進行累加,從而使得斷定更爲準確。

OverFeat的關鍵步驟有四步:

  • 利用滑動窗口進行不一樣尺度的區域提名,而後使用CNN模型對每一個區域進行分類,獲得類別和置信度。從圖中能夠看出,不一樣縮放比例時,檢測出來的目標對象數量和種類存在較大差別;

  • 利用多尺度滑動窗口來增長檢測數量,提高分類效果,如圖所示;

  • 用迴歸模型預測每一個對象的位置,從圖中來看,放大比例較大的圖片,邊框數量也較多;

 

  • 邊框合併。

Overfeat是CNN用來作目標檢測的早期工做,主要思想是採用了多尺度滑動窗口來作分類、定位和檢測,雖然是多個任務但重用了模型前面幾層,這種模型重用的思路也是後來R-CNN系列不斷沿用和改進的經典作法。

固然Overfeat也是有很多缺點的,至少速度和效果都有很大改進空間,後面的R-CNN系列在這兩方面作了不少提高。

2、基於區域提名的方法

本小節主要介紹基於區域提名的方法,包括R-CNN、SPP-net、Fast R-CNN、Faster R-CNN、R-FCN。

一、R-CNN

如前面所述,早期的目標檢測,大都使用滑動窗口的方式進行窗口提名,這種方式本質是窮舉法,R-CNN[1,2,3]採用的是Selective Search。

如下是R-CNN的主要步驟:

  • 區域提名:經過Selective Search從原始圖片提取2000個左右區域候選框;
  • 區域大小歸一化:把全部侯選框縮放成固定大小(原文采用227×227,AlexNet網絡);
  • 特徵提取:經過CNN網絡,提取特徵;
  • 分類與迴歸:在特徵層的基礎上添加兩個全鏈接層,再用SVM分類來作識別,用線性迴歸來微調邊框位置與大小,其中每一個類別單獨訓練一個邊框迴歸器。

其中目標檢測系統的結構以下圖所示,注意,圖中的第2步對應步驟中的一、2步,即包括區域提名和區域大小歸一化。

Overfeat能夠看作是R-CNN的一個特殊狀況,只須要把Selective Search換成多尺度的滑動窗口,每一個類別的邊框迴歸器換成統一的邊框迴歸器,SVM換爲多層網絡便可。可是Overfeat實際比R-CNN快9倍,這主要得益於卷積相關的共享計算。

事實上,R-CNN有不少缺點:

  • 重複計算:R-CNN雖然再也不是窮舉,但依然有兩千個左右的候選框,這些候選框都須要進行CNN操做,計算量依然很大,其中有很多實際上是重複計算;
  • SVM模型:並且仍是線性模型,在標註數據不缺的時候顯然不是最好的選擇;
  • 訓練測試分爲多步:區域提名、特徵提取、分類、迴歸都是斷開的訓練的過程,中間數據還須要單獨保存;
  • 訓練的空間和時間代價很高:卷積出來的特徵須要先存在硬盤上,這些特徵須要幾百G的存儲空間;
  • 慢:前面的缺點最終致使R-CNN出奇的慢,GPU上處理一張圖片須要13秒,CPU上則須要53秒[2]。

固然,R-CNN此次是衝着效果來的,其中ILSVRC 2013數據集上的mAP由Overfeat的24.3%提高到了31.4%,第一次有了質的改變。

 二、SPP-Net

SPP-net[4,19]是MSRA何愷明等人提出的,其主要思想是去掉了原始圖像上的crop/warp(裁切/扭曲)等操做,換成了在卷積特徵上的空間金字塔池化層(Spatial Pyramid Pooling,SPP),以下圖所示。爲什麼要引入SPP層 ,主要緣由是CNN的全鏈接層要求輸入圖片是大小一致的,而實際中的輸入圖片每每大小不一,若是直接縮放到同一尺寸,極可能有的物體會充滿整個圖片,而有的物體可能只能佔到圖片的一角。傳統的解決方案是進行不一樣位置的裁剪,可是這些裁剪技術均可能會致使一些問題出現,好比下圖中的crop會致使物體不全,warp致使物體被拉伸後形變嚴重,SPP就是爲了解決這種問題的。SPP對整圖提取固定維度的特徵,再把圖片均分紅4份,每份提取相同維度的特徵,再把圖片均分爲16份,以此類推,注意這裏提取固定維度的特徵,是經過對每一個網格中的每一個通道,都取出其最大值,換句話說,就是最每一個網格內的特徵作最大值池化。能夠看出,不管圖片大小如何,提取出來的維度數據都是一致的,這樣就能夠統一送至全鏈接層了。SPP思想在後來的R-CNN模型中也被普遍用到。

SPP-net的網絡結構以下圖所示,實質是最後一層卷積層後加了一個SPP層,將維度不一的卷積特徵轉換爲維度一致的全鏈接輸入。

SPP-net作目標檢測的主要步驟爲:

  • 區域提名:用Selective Search從原圖中生成2000個左右的候選窗口;
  • 區域大小縮放:SPP-net再也不作區域大小歸一化,而是縮放到min(wh)=s,即統一長寬的最短邊長度,s選自{480,576,688,864,1200}中的一個,選擇的標準是使得縮放後的候選框大小與224×224最接近;
  • 特徵提取:利用SPP-net網絡結構提取特徵;
  • 分類與迴歸:相似R-CNN,利用SVM基於上面的特徵訓練分類器模型,用邊框迴歸來微調候選框的位置。

SPP-net解決了R-CNN區域提名時crop/warp帶來的誤差問題,提出了SPP層,使得輸入的候選框可大可小,但其餘方面依然和R-CNN同樣,於是依然存在很多問題,這就有了後面的Fast R-CNN。

三、Fast R-CNN

Fast R-CNN是要解決R-CNN和SPP-net兩千個左右候選框帶來的重複計算問題,其主要思想爲:

  • 使用一個簡化的SPP層 —— RoI(Region of Interesting) Pooling層,操做與SPP相似;
  • 訓練和測試是再也不分多步:再也不須要額外的硬盤來存儲中間層的特徵,梯度可以經過RoI Pooling層直接傳播;此外,分類和迴歸用Multi-task的方式一塊兒進行;
  • SVD:使用SVD分解全鏈接層的參數矩陣,壓縮爲兩個規模小不少的全鏈接層。

以下圖所示,Fast R-CNN的主要步驟以下:

  • 特徵提取:以整張圖片爲輸入利用CNN獲得圖片的特徵層;
  • 區域提名:經過Selective Search等方法從原始圖片提取區域候選框,並把這些候選框一一投影到最後的特徵層;
  • 區域歸一化:針對特徵層上的每一個區域候選框進行RoI Pooling操做,獲得固定大小的特徵表示;
  • 分類與迴歸:而後再經過兩個全鏈接層,分別用softmax多分類作目標識別,用迴歸模型進行邊框位置與大小微調。

 

Fast R-CNN比R-CNN的訓練速度(大模型L)快8.8倍,測試時間快213倍,比SPP-net訓練速度快2.6倍,測試速度快10倍左右。

四、Faster R-CNN

Fast R-CNN使用Selective Search來進行區域提名,速度依然不夠快。Faster R-CNN則直接利用RPN(Region Proposal Networks)網絡來計算候選框。RPN以一張任意大小的圖片爲輸入,輸出一批矩形區域提名,每一個區域對應一個目標分數和位置信息。Faster R-CNN中的RPN結構以下圖所示。

Faster R-CNN的主要步驟以下:、

  • 特徵提取:同Fast R-CNN,以整張圖片爲輸入,利用CNN獲得圖片的特徵層;
  • 區域提名:在最終的卷積特徵層上利用k個不一樣的矩形框(Anchor Box)進行提名,k通常取9;
  • 分類與迴歸:對每一個Anchor Box對應的區域進行object/non-object二分類,並用k個迴歸模型(各自對應不一樣的Anchor Box)微調候選框位置與大小,最後進行目標分類。

總之,Faster R-CNN拋棄了Selective Search,引入了RPN網絡,使得區域提名、分類、迴歸一塊兒共用卷積特徵,從而獲得了進一步的加速。可是,Faster R-CNN須要對兩千個Anchor Box先判斷是不是目標(目標斷定),而後再進行目標識別,分紅了兩步。

五、R-FCN

前面的目標檢測方法均可以細分爲兩個子網絡:

  • 共享的全卷積網絡;
  • 不共享計算的ROI相關的子網絡(好比全鏈接網絡)。

R-FCN則將最後的全鏈接層換爲了一個位置敏感的的卷積網絡,從而讓全部計算均可以共享。具體來講,先把每一個提名區域劃分爲k×k個網格,好比R-FCN原文中k的取值爲3,則對應的九個網格分別表示:左上top-left,上中top-center,,右下bottom-right,對應下面第一張圖中的九宮格及第二張圖中的不一樣顏色的塊,每一個Grid都有對應的編碼,但預測時候會有C+1個輸出,C表示類別數目,+1是由於有背景類別,所有的輸出通道數量爲k2×(C+1)。

須要注意的是,上面兩張圖中不一樣位置都存在一個九宮格,可是Pooling時候只有一個起做用,好比bottom-right層只有右下角的小塊起做用。那麼問題來了,這一層其餘的8個框有什麼做用呢?答案是它們能夠做爲其餘ROI(偏左或偏上一些的ROI)的右下角。

R-FCN的步驟爲:

  • 區域提名:使用RPN(Region Proposal Network,區域提名網絡),RPN自己是全卷積網絡結構;
  • 分類與迴歸:利用和RPN共享的特徵進行分類。當作bbox迴歸時,則將C設置爲4。

 三 端對端的方法

本小節介紹端到端(End-to-End)的目標檢測方法,這些方法無需區域提名,包括YOLO和SSD。

一、YOLO

YOLO的全拼是You Only Look Once,顧名思義就是隻看一次,進一步把目標斷定和目標識別合二爲一,因此識別性能有了很大提高,達到每秒45幀,而在快速版YOLO(Fast YOLO,卷積層更少)中,能夠達到每秒155幀。

網絡的總體結構如圖所示,針對一張圖片,YOLO的處理步驟爲:

  • 把輸入圖片縮放到448×448大小;
  • 運行卷積網絡;
  • 對模型置信度卡閾值,獲得目標位置與類別。

網絡的模型如圖所示,將448×448大小的圖切成S×S的網格,目標中心點所在的格子負責該目標的相關檢測,每一個網格預測B個邊框及其置信度,以及C種類別的機率。YOLO中S=7,B=2,C取決於數據集中物體類別數量,好比VOC數據集就是C=20。對VOC數據集來講,YOLO就是把圖片統一縮放到448×448,而後每張圖平均劃分爲7×7=49個小格子,每一個格子預測2個矩形框及其置信度,以及20種類別的機率。

YOLO簡化了整個目標檢測流程,速度的提高也很大,可是YOLO仍是有很多能夠改進的地方,好比S×S的網格就是一個比較啓發式的策略,若是兩個小目標同時落入一個格子中,模型也只能預測一個;另外一個問題是Loss函數對不一樣大小的bbox未作區分。

二、SSD

SSD[17,23]的全拼是Single Shot MultiBox Detector,衝着YOLO的缺點來的。SSD的框架如圖所示,圖(a)表示帶有兩個Ground Truth邊框的輸入圖片,圖(b)和(c)分別表示8×8網格和4×4網格,顯然前者適合檢測小的目標,好比圖片中的貓,後者適合檢測大的目標,好比圖片中的狗。在每一個格子上有一系列固定大小的Box(有點相似Anchor Box),這些在SSD稱爲Default Box,用來框定目標物體的位置,在訓練的時候Ground Truth會賦予給某個固定的Box,好比圖(b)中的藍框和圖(c)中的紅框。

SSD的網絡分爲兩部分,前面的是用於圖像分類的標準網絡(去掉了分類相關的層),後面的網絡是用於檢測的多尺度特徵映射層,從而達到檢測不一樣大小的目標。SSD和YOLO的網絡結構對好比圖所示。

SSD在保持YOLO高速的同時效果也提高不少,主要是借鑑了Faster R-CNN中的Anchor機制,同時使用了多尺度。可是從原理依然能夠看出,Default Box的形狀以及網格大小是事先固定的,那麼對特定的圖片小目標的提取會不夠好。

四 總結

基於深度學習的目標檢測整體上分爲兩派:

  • 基於區域提名的R-CNN系列;
  • 無需區域提名的YOLO、SSD系列。

下表大體對比了各類方法的性能(Fps,每秒幀數)和VOC 2007上的MAP對比。注意相關數據蒐集自不一樣的paper,因爲評測硬件和環境等區別,數據僅供參考,不具備絕對對比意義。

注:數據取自各自paper,因爲評測硬件和環境等區別,數據並不具備絕對對比意義,僅供參考。

  Fps VOC 2007
Overfeat 0.5  
R-CNN 0.077 48-66%
SPP-net   63.1-82.4%
Fast R-CNN   66.9%-70%
Faster R-CNN 15(ZF Model) 73.2%-85.6%
R-FCN 6 83.6%
YOLO 45-150 58.8%
SSD 58-72 75.1%

 

 

   

 

 

 

 

基於深度學習的目標檢測的研究目前依然很是火熱,下圖爲VOC2012目標檢測排行榜[25](2016-10-18結果),很高興看到不少華人和國內同仁在這方面各領風騷。

固然,目標檢測還有很長的路要走,好比業界公認較難的小目標檢測問題。

小試身手,來一張實際的三里屯照片,YOLO的檢測結果如圖所示,能夠看出漏檢了很多目標。

再來看看下圖中SSD的效果,看起來效果好很多,但被遮擋的人仍是漏檢了。

參考文章:

[1] R. Girshick, J. Donahue, T. Darrell, J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. ImageNet Large-Scale Visual Recognition Challenge workshop, ICCV, 2013.(R-CNN)

[2] R. Girshick, J. Donahue, T. Darrell, J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014.(R-CNN)

[3] R. Girshick, J. Donahue, T. Darrell, J. Malik. Region-Based Convolutional Networks for Accurate Object Detection and Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, May. 2015.(R-CNN)

[4] K. He, X. Zhang, S. Ren, and J. Sun. Spatial pyramid pooling in deep convolutional networks for visual recognition. In ECCV. 2014.(SPP-Net)

[5] S. Ren, K. He, R. Girshick, J. Sun. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. Advances in Neural Information Processing Systems 28 (NIPS), 2015.(Faster R-CNN)

[6] C. Szegedy, A. Toshev, D. Erhan. Deep Neural Networks for Object Detection. Advances in Neural Information Processing Systems 26 (NIPS), 2013.(DNN)

[7] P. Sermanet, D. Eigen, X.Zhang, M. Mathieu, R. Fergus, and Y. LeCun. OverFeat: Integrated recognition, localization and detection using convolutional networks. In ICLR, 2014.(OverFeat)

[8] J.R. Uijlings, K.E. vandeSande, T. Gevers, and A.W. Smeulders. Selective search for object recognition. IJCV, 2013.(Selective Search)

[9] OverFeat source code

[10] ILSVRC 2013 results

[11] A. Krizhevsky, I. Sutskever, and G. Hinton. Imagenet classification with deep convolutional neural net- works. In NIPS, 2012.(DNN)

[12] J. Hosang, R. Benenson, P. Dolla ́r, and B. Schiele. What makes for effective detection proposals? TPAMI, 2015.(Selective Search)

[13] Felzenszwalb P F, Girshick R B, McAllester D, et al. Object detection with discriminatively trained part-based models[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2010, 32(9): 1627-1645.(DMP)

[14] Girshick, R. Fast R-CNN. ICCV 2015.(R-CNN)

[15] Redmon, J., Divvala, S., Girshick, R., Farhadi, A.: You only look once: Unified, real-time object detection. In: CVPR. (2016)(YOLO)

[16] R-FCN: Object Detection via Region-based Fully Convolutional Networks. Jifeng Dai, Yi Li, Kaiming He, and Jian Sun. Conference on Neural Information Processing Systems (NIPS), 2016.(R-FCN)

[17] Liu W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[J]. arXiv preprint arXiv:1512.02325, 2015.(SSD)

[18] R-CNN(代碼)

[19] SPP-net(代碼)

[20] Fast R-CNN(代碼)

[21] Faster R-CNN代碼

[22] YOLO

[23] SSD(代碼)https://pjreddie.com/darknet/yolo/(使用)

[24] R-FCN(代碼)

[25] Detection Results: VOC2012 Competition – 「comp4」 (train on own data):

[26]基於深度學習的目標檢測(強烈推薦)

[27]基於深度學習的目標檢測技術演進:R-CNN、Fast R-CNN、Faster R-CNN(強烈推薦)

[28]基於深度學習的圖像目標檢測(上)

[29]基於深度學習的圖像目標檢測(下)

[30]You Only Look Once: Unified, Real-Time Object Detection 中文版 中英文對照(YOLO)

[31]]SSD: Single Shot MultiBox Detector 中文版 中英文對照(SSD)

[32]YOLO9000: Better, Faster, Stronger 中文版 中英文對照(YOLO9000)

[33]Deformable Convolutional Networks 中文版 中英文對照(Deformable-ConvNets)

[34]Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 中文版 中英文對照(Faster R-CNN)

[35]R-FCN: Object Detection via Region-based Fully Convolutional Networks 中文版 中英文對照(R-FCN)

[36]Feature Pyramid Networks for Object Detection 中文版 中英文對照(FPN)

[37]目標檢測論文整理

[38]文章閱讀路線參考(大部分文章,以及源代碼github連接)

相關文章
相關標籤/搜索