目錄網絡
目標檢測的評價指標最常使用的是交併比進行度量。然而在優化(常用距離參數對邊界框進行迴歸)和最大化(最大化這個度量參數)之間存在一些缺陷(這裏指代價函數和優化目標之間存在不對等狀況,具體看後文就會明白)。度量的最優目標就是其自己。在軸對稱的狀況下,IOU能夠直接當作迴歸損失。然而,在不想交的狀況下,IOU是不能當作度量值的。在本文中,我將經過介紹一種新的度量(GIOU)和LOSS計算方法來解決IOU的缺點。經過把GIOU融合進當前最早進的網絡之中(數據集使用當前最流行的基準PASCAL VOC、COCO等),對比GIU和IOU,展現出GIOU一致的優於IOU的表現。架構
框迴歸是2D、3D計算機視覺任務中最重要的組成部分之一。任務包括:目標定位、多目標檢測、目標跟蹤、依靠高精度的框迴歸實例級分割。 使用深度神經網絡去提升應用的性能,占主導地位的方法是提出一個更好的基礎架構或者更好的策略來提取更精確的特徵。然而一個很好的提升方法被忽視,使用損失的度量方法IOU去代替迴歸損失(L1--LOSS、L2--LOSS)。app
IOU又被稱爲Jaccard索引,經常使用來做爲兩個任意形狀目標類似性對比。IOU對目標的形狀屬性進行編碼,長寬高位置等,而後對他們的區域計算一個標準的度量。由IOU的計算屬性,具備尺度不變性。因爲這個良好的屬性,因此被普遍的應用在分割和目標檢測中進行性能評價。dom
然而,IOU沒有表現出很好的相關性,對於 \(l_n-norms\) 等損失最小化(2D、3D中兩個框參數化)和提升他們IOU值。例如:在圖1(a)中,假設LOSS採用\(l_2-norm\)進行表示,則每一個LOSS的大小相同。相同的論述能夠推廣到其餘的loss(圖b和圖c)。直觀上,一個好的目標局部最優不必定是IOU局部最優。和IOU相反,\(l_n-norm\) 是不具備尺度不變性的。爲了這個目的,一些具備透視變換的區域(同一水平),那麼他們計算出的LOSS就不相同。此外,一些不一樣的參數化類型表述之間可能缺乏標準化。好比使用中心點和大小表示的\((x,y,w,h)\),隨着更多參數(旋轉、或者增長一個維度表示)的合併,複雜度也會增長。爲了解決上述的問題,一些優秀的檢測器提出了錨的概念,來作一個初始化的假設。又定義一個非線性的參數來對尺度進行補償。即便作了這些手動改變,也不無彌補優化器和IOU之間的差異。註釋:這是表達的意思是咱們進行訓練最小化的東西A,評價的指標B,A和B之間沒有統一(標準化)。例如,最小二乘法,咱們最小化和評價的指標都是一個(平均垂直到線的距離最小)。而在目標檢測的時候咱們使用的是L1-LOSS,而評價的時候使用IOU。做者給出的圖一發現這兩個不統一。Anchor的出現是爲了簡化目標得表示方式,尺度參數的出現(SSD裏面是編解碼)是爲了解決多尺度問題函數
在這篇文章中,咱們發現一種與流行方法不一樣的可計算IOU,在兩個軸對齊的狀況下,能夠直接獲得解,而且此方式能夠反向傳播。也可使用優化器進行優化獲得最優值。在2D、3D的目標檢測中能夠很是好的使用IOU進行計算。這樣IOU既能夠當作優化函數,也能夠做爲度量函數。然而,IOU同時做爲度量和LOSS存在一個重要問題:若是兩個框不想交,那麼就沒法衡量兩個框的距離,同時值爲0,當計算梯度的時候就沒法使用優化器進行傳播。性能
在這篇文章中,咱們經過擴充IOU的概念(範圍)去解決不想交的狀況。咱們確保具備如下性質:(a)和IOU的定義同樣,對邊界進行編碼。(b)保持尺度不變性。(c)在相交的狀況和LOSS有很強的相關性。咱們介紹的方法稱爲GIOU,做爲解決兩個任意形狀的幾何相關性。咱們也提供了一種計算GIOU的分析方案,在兩個軸對齊的狀況下,讓它稱爲計算LOSS的一種途徑。在當前最早進的檢測網絡合併入GIOU,能夠達到比以前都有提高的結果。。。(後面都是和摘要相同)。優化
這篇文章最主要的貢獻總結以下(都是廢話):ui
目標檢測精度測量:IOU做爲基礎,當IOU大於0.5時候做爲計算輸入,使用mAP做爲衡量基準。this
邊界框的表現和LOSS計算:說了一些傳統論文的計算方法。。。。編碼
使用近似IOU或一個替代函數:在語義分割任務中,他們作了一些努力,使用近似或另外的函數替代LOSS的計算。在當前的目標檢測中,部分論文已經開始使用IOU做爲LOSS的計算,可是在不想交的狀況下如何應用仍是個未解決的問題。
IOU用來衡量兩個任意形狀的相關性:
\[ IOU=\frac{|A\bigcap B|}{A\bigcup B} \]
IOU做爲2D、3D目標檢測評價函數最普遍的使用,主要包括兩個優勢:
然而,IOU存在一個主要的缺點:
爲了解決這個問題,咱們提出一個擴充的IOU來解決這個問題,命名爲GIOU。
。。。說了一段計算GLOU的話,就是以下公式:
GIOU具備以下的優勢:
這部分很簡單,IOU怎麼計算的,GIOU一樣計算
下面放一張原論文的計算圖便可:
LOSS的穩定性分析:當出現一些極端狀況的時候,哪一個度量方式會使LOSS更穩定?
不進行分析,直接看結果便可
本文的思想很是簡單,就是說LOSS和評估函數得相等,否則LOSS學到的東西不等於評價結果。主語若是作得論文說的很清楚,這裏再也不贅述。
關於網上說的幾個問題,這裏我的回答一波
其實回答這個問題很簡單,由於\(、L_一、L_2\)的計算在必定狀況下是符合優化目標的
試想一下,SSD的框定義那麼多,總有一個符合計算模式的(並且是精心設計的框)
若是按照做者說的,把anchor和GroundTrue所有不想交試試?gradient=0怎麼計算?
不明顯?
效果不明顯是由於SSD這種框太多了,不少都符合\(、L_一、L_2\)的計算模式了。
能夠試試把SSD框下降,同時一張圖像中的目標增長
反而很差?
按照理論分析基本不可能
metric
:度量optimal
: 最優plateau
: 平面infeasible
: 不可行adress
: 解決incorporating
:合併consistent
:一致的instance level segmentation
:實例級分割dominate
:佔統治地位utilizing
:利用surrogate
:取代、代替arbitrary
:任意的appealing
:吸引人的(appeal呼籲、吸引)significant
:明顯的intuitive
:直觀上to this end
:爲了這個目的alleviate
:減輕compensate
:補償prevailing
:流行的maintains
:保持remedy
:修正crucial
:重要的volumes
:容器fulfill
:知足discern
:辨認、識別symmetry
:對稱vicinity
:附近ellipse
:橢圓tighter
:緊protocol
:協議