導言git
這篇文章有 4篇論文速遞,都是目標檢測方向,包括行人檢測、車輛檢測、指紋檢測和目標跟蹤等。github
CVer算法
編輯: Amusi 數據庫
校稿: Amusi網絡
前戲app
Amusi 將平常整理的論文都會同步發佈到 daily-paper-computer-vision 上。名字有點露骨,還請見諒。喜歡的童鞋,歡迎star、fork和pull。分佈式
直接點擊「閱讀全文」便可訪問daily-paper-computer-vision。
link: https://github.com/amusi/daily-paper-computer-visionide
目標檢測(Object Detection)性能
《Remote Detection of Idling Cars Using Infrared Imaging and Deep Networks》測試
arXiv 2018
Proposed idling car detection framework
Abstract:怠速車輛(Idling vehicles)經過廢氣排放浪費能源並污染環境。在一些國家,禁止將車輛空轉超過預約的時間,而且執法機構須要自動檢測怠速車輛。咱們提出第一個使用紅外(IR)成像和深度網絡來檢測空轉車的自動系統。
咱們依靠怠速和停車時空熱特徵的差別,並使用長波紅外攝像機監測車內溫度。
咱們將怠速車檢測問題制定爲IR圖像序列中的時空事件檢測,並採用深度網絡進行時空建模。咱們收集了第一個IR圖像序列數據集,用於怠速汽車檢測。首先,咱們使用卷積神經網絡在每一個紅外圖像中檢測汽車,該網絡在規則的RGB圖像上進行預先訓練,並在IR圖像上進行微調以得到更高的準確性。而後,咱們跟蹤檢測到的汽車隨着時間的推移,以識別停放的汽車。最後,咱們使用每輛停放汽車的3D時空紅外圖像體積做爲卷積和循環網絡的輸入,以將它們分類爲空閒或不空閒。咱們對各類卷積和循環體系結構的時間和時空建模方法進行了普遍的經驗性評估。咱們在咱們的IR圖像序列數據集上呈現出有前景的實驗結果。
arXiv:https://arxiv.org/abs/1804.10805
注:怠速車輛(Idling vehicles)簡單理解就是啓動的車輛在原地不動的狀態,感受像是空轉。
《MV-YOLO: Motion Vector-aided Tracking by Semantic Object Detection》
arXiv 2018
An overview of the proposed tracking method
Abstract:目標跟蹤是許多可視化分析系統的基石。近年來,雖然在這方面取得了至關大的進展,但在實際視頻中進行穩健,高效和準確的跟蹤仍然是一項挑戰。在本文中,咱們提出了一種混合跟蹤器,利用壓縮視頻流中的運動信息和做用於解碼幀的通用語義對象檢測器,構建適用於多種可視化分析應用的快速高效的跟蹤引擎。所提出的方法與OTB跟蹤數據集上的幾個常見的跟蹤器進行了比較。結果代表所提出的方法在速度和準確性方面的優勢。所提出的方法相對於大多數現有跟蹤器的另外一個優勢是其簡單性和部署效率,這歸因於其重用並從新利用系統中可能已存在的資源和信息,這是因爲其餘緣由。
arXiv:https://arxiv.org/abs/1805.00107
《Altered Fingerprints: Detection and Localization》
arXiv 2018
An overview of the proposed approach for detection and localization of altered fingerprints
Abstract:Fingerprint alteration(也稱爲模糊呈現***)是有意篡改或破壞真實的 friction ridge patterns以免AFIS識別。本文提出了一種檢測和定位指紋變化的方法。咱們的主要貢獻是:(i)設計和訓練指紋圖像上的CNN模型和圖像中以細節點爲中心的局部斑塊,以檢測和定位指紋變化區域,以及(ii)訓練生成對抗網絡(GAN)合成變化的指紋其特徵與真實改變的指紋類似。成功訓練的GAN能夠緩解研究中改變指紋圖像的有限可用性。來自270個科目的4,815個改變指紋的數據庫和相同數量的滾動指紋圖像用於訓練和測試咱們的模型。所提出的方法在錯誤檢測率(FDR)爲2%時實現99.24%的真實檢測率(TDR),優於公佈的結果。改變後的指紋檢測和定位模型和代碼以及合成生成的改變後的指紋數據集將是開源的。
arXiv:https://arxiv.org/abs/1805.00911
《Real-Time Human Detection as an Edge Service Enabled by a Lightweight CNN》
IEEE EDGE 2018
L-CNN network layers specification
L-CNN: human object from variant angles and distances
Abstract:邊緣計算(Edge computing)容許更多計算任務在網絡邊緣的分佈式節點上發生。今天,許多對延遲敏感的任務關鍵型應用程序能夠利用這些邊緣設備來縮短期延遲,甚至能夠經過現場存在實現實時的在線決策。智能監控中的人體檢測,行爲識別和預測屬於這一類別,在這種狀況下,大量視頻流數據的轉換會花費寶貴的時間,並給通訊網絡帶來沉重的壓力。人們廣泛認爲,視頻處理和目標檢測是計算密集型且太昂貴而沒法由資源有限的邊緣設備來處理。受 depthwise separable 卷積和S ingle Shot Multi-Box Detector (SSD)的啓發,本文介紹了一種輕量級卷積神經網絡(LCNN)。經過縮小分類器的搜索空間以專一於監控視頻幀中的人體對象,所提出的LCNN算法可以以對於邊緣設備的負擔得起的計算工做量來檢測行人。原型已經在使用OpenCV庫的邊緣節點(Raspberry PI 3)上實現,使用真實世界的監控視頻流能夠得到使人滿意的性能。實驗研究驗證了LCNN的設計,並代表它是在邊緣計算密集型應用的有前景的方法。