通知:這篇推文有10篇論文速遞信息,涉及人臉表情識別、人臉替換、3D人臉重建、Re-ID、目標檢測和目標跟蹤等方向git
Note:最近一直有童鞋私聊問我,有沒有相關的討論羣,因而今天我新建了CVer微信討論羣。願意加入羣聊的童鞋請下拉至文末,掃碼進羣,謝謝github
往期回顧算法
[計算機視覺] 入門學習資料數據庫
[計算機視覺論文速遞] 2018-03-16性能優化
[計算機視覺論文速遞] 2018-03-14微信
人臉網絡
[1]《Deep Structure Inference Network for Facial Action Unit Recognition》架構
Abstract:面部表情是稱爲行動單位(AU)的基本組件的組合。 識別AU是開發常規面部表情分析的關鍵。 近年來,自動AU識別中的大部分努力致力於學習局部特徵的組合,並利用動做單元之間的相關性。 在本文中,咱們提出了一種深度神經網絡架構,經過在初始階段結合學習的局部和全局特徵來解決這兩個問題,並在類之間複製相似於後面階段的圖形模型推理方法的消息傳遞算法。 咱們證實,經過增長監督來端對端地訓練模型,咱們分別提升了BP4D和DISFA數據集的5.3%和8.2%的性能水平。框架
arXiv:https://arxiv.org/abs/1803.05873ide
[2]《Deep Adaptive Attention for Joint Facial Action Unit Detection and Face Alignment》
Abstract:面部動做單元(AU)檢測和麪部對齊是兩個高度相關的任務,由於面部標誌能夠提供精確的AU位置,以便於爲AU檢測提取有意義的局部特徵。大多數現有的AU檢測工做常常將面對齊做爲預處理並獨立處理這兩個任務。在本文中,咱們提出了一種新穎的端到端深度學習框架,用於聯合AU檢測和人臉對齊,這在之前沒有探討過。特別是首先學習多尺度共享特徵,並將高層次的人臉對齊特徵引入AU檢測。此外,爲了提取精確的局部特徵,咱們提出了一種自適應注意力學習模塊,以自適應地優化每一個AU的注意力圖。最後,組合的局部特徵與面部對齊特徵和用於AU檢測的全局特徵集成。對BP4D和DISFA基準的實驗代表,咱們的框架明顯優於AU檢測的最早進方法。
arXiv:https://arxiv.org/abs/1803.05588
[3]《Image Registration Based Flicker Solving in Video Face Replacement and Analysis Based Sub-pixel Image Registration》
ICIS 2017
Abstract:本文提出了一種視頻人臉替換的框架,它處理視頻序列中交換人臉的閃爍。該框架包含兩個主要創新:1)利用圖像配準技術來調整源視頻和目標視頻面以消除分段視頻臉部序列的閃爍或抖動; 2)提出了一種快速亞像素圖像配準方法,以得到更高的精度和效率。與先驗做品不一樣,它將重疊區域最小化,並將時空連貫性考慮在內。致使視頻閃爍一般是由混合目標人臉頻繁變化的邊界以及視頻序列之間和以後的未註冊人臉形成的。提出了亞像素圖像配準方法來解決閃爍問題。在對齊過程當中,經過最大化圖像的類似性和下采樣策略來加速整個過程,而且經過分析方法進行的子像素圖像配準是單步圖像匹配,從而制定整數像素配準。實驗結果代表,該算法在不一樣數據集上進行實驗時,減小了計算時間,得到了很高的精度。
注:視頻人臉替換,頗有意思!!!
arXiv:https://arxiv.org/abs/1803.05851
[4]《Accurate Facial Parts Localization and Deep Learning for 3D Facial Expression Recognition》
Abstract:有意義的臉部能夠傳達面部動做單元檢測和表情預測的關鍵線索。紋理化的3D人臉掃描能夠提供詳細的3D幾何形狀和麪部表情識別(FER)有益的人臉2D紋理外觀提示。然而,準確的臉部提取以及它們的融合是具備挑戰性的任務。本文提出了一種基於精確臉部提取和臉部深部特徵融合的全新三維FER系統。具體而言,每一個紋理化的3D人臉掃描首先被表示爲具備一對一密集對應關係的2D紋理圖和深度圖。而後,使用由面部標誌點定位,面部旋轉修正,面部尺寸調整,臉部部分包圍盒提取和後處理程序組成的新的4階段過程來提取紋理圖和深度圖的面部部分。最後,分別從紋理貼圖和深度貼圖中學習全部面部的深度融合卷積神經網絡(CNNs)特徵,並將非線性支持向量機用於表達預測。在BU-3DFE數據庫上進行實驗,證實梳理不一樣面部部分,紋理和深度線索的有效性,並與相同設置下的全部現有方法進行比較,報告最早進的結果。
arXiv:https://arxiv.org/abs/1803.05846
[5]《Facelet-Bank for Fast Portrait Manipulation》
Accepted by CVPR 2018
Abstract:因爲智能手機和社交網絡的普及,數字臉部操縱已成爲觸摸圖像的流行和迷人方式。 隨着各類各樣的用戶喜愛,面部表情和配件,一個通用和靈活的模型是必要的,以適應不一樣類型的面部編輯。 在本文中,咱們提出了基於支持快速推理,編輯效果控制和快速部分模型更新的端到端卷積神經網絡的模型。 另外,該模型從具備不一樣屬性的不成對圖像集中學習。 實驗結果代表,咱們的框架能夠處理各類各樣的臉部表情,配件和化妝效果,以高速生成高分辨率和高質量的效果。
arXiv:https://arxiv.org/abs/1803.05576
[6]《Evaluation of Dense 3D Reconstruction from 2D Face Images in the Wild》
Abstract:本文研究了單個2D圖像的密集三維人臉重建評估。 爲此,咱們組織了一次比賽,提供了一個新的基準數據集,其中包含了2000個2D科目的2D面部圖像以及他們的3D地面真相人臉掃描。 與以前的競賽或挑戰相比,這種新的基準數據集的目標是使用真實,準確和高分辨率的3D ground-truth人臉掃描來評估3D稠密人臉重建算法的準確性。 除了數據集以外,咱們還提供標準協議以及用於評估的Python腳本。 最後,咱們報告了三個最早進的三維人臉重建系統在新基準數據集上的結果。 本次比賽是與2018年第13屆IEEE自動人臉識別和手勢會議一塊兒舉辦的。
arXiv:https://arxiv.org/abs/1803.05536
github:https://github.com/patrikhuber/fg2018-competition
Re-ID
[7]《Virtual CNN Branching: Efficient Feature Ensemble for Person Re-Identification》
Abstract:在本文中,咱們介紹一種卷積神經網絡(CNN)的集合方法,稱爲「虛擬分支」,它能夠在幾乎沒有附加參數的狀況下實施,而且能夠在標準CNN的基礎上進行計算。 咱們在行人重識別的任務下提出咱們的方法。 咱們的CNN模型由共享底層組成,其次是「虛擬」分支,來自常規卷積層和徹底鏈接層的神經元被劃分爲多個集合。 每一個虛擬分支用不一樣的數據進行訓練以專一於不一樣的方面,例如特定的身體區域或姿式取向。 經過這種方式,能夠在幾乎沒有任何額外成本的狀況下得到魯棒的集成表示,以抵抗人體錯位,變形或視角變化。 所提出的方法在多人再識別基準數據集上實現了競爭性表現,包括Market-1501,CUHK03和DukeMMC-reID。
arXiv:https://arxiv.org/abs/1803.05872
目標檢測
[8]《Pseudo Mask Augmented Object Detection》
Abstract:在這項工做中,咱們提出了一個新穎而有效的框架,以利用僅由邊框註解監督的實例級分割信息來促進對象檢測。從聯合對象檢測和實例分割網絡開始,咱們提出從實例級對象分割網絡訓練中遞歸地估計pseudo ground-truth對象掩碼,而後利用自頂向下分割反饋加強檢測網絡。pseudo ground-truth掩模和網絡參數被優化以替代彼此互惠。爲了在每次迭代中得到有較好的僞掩碼,咱們嵌入了包含低級圖像外觀一致性和邊界框註釋的圖形推斷,以細化由分割網絡預測的分割掩模。咱們的方法經過結合從弱監督分割網絡學習的詳細的逐像素信息來逐步提升對象檢測性能。對PASCAL VOC 2007和2012 [12]中的檢測任務的普遍評估證明了所提出的方法是有效的。
arXiv:https://arxiv.org/abs/1803.05858
[9]《Object Detection in Video with Spatiotemporal Sampling Networks》
Abstract:咱們提出了一種時空採樣網絡(STSN),它使用跨時間變形卷積來進行視頻中的物體檢測。 咱們的STSN經過學習從相鄰幀的空間採樣特徵來在視頻幀中執行對象檢測。 這天然使得該方法對於單個幀中的遮擋或運動模糊是魯棒的。 咱們的框架不須要額外的監督,由於它直接針對物體檢測性能優化採樣位置。 咱們的STSN性能優於ImageNet VID數據集的最新技術水平,與以前的視頻對象檢測方法相比,它採用更簡單的設計,而且不須要光流數據進行培訓。 咱們還代表,在對視頻進行STSN訓練以後,咱們能夠經過在靜止圖像數據上添加和訓練單個可變形的卷積層來適應圖像中的對象檢測。 與傳統的圖像中的物體檢測相比,這能夠提升精確度。
arXiv:https://arxiv.org/abs/1803.05549
目標跟蹤
[10]《A Structural Correlation Filter Combined with A Multi-task Gaussian Particle Filter for Visual Tracking》
Abstract:在本文中,咱們提出了一種新穎的結構相關濾波器與多任務高斯粒子濾波器(KCF-GPF)模型相結合的魯棒視覺跟蹤。咱們首先提出一種組裝結構,其中幾個KCF跟蹤器做爲弱專家爲高斯粒子濾波器提供初步決策,以做出最終決定。所提出的方法旨在利用和補充KCF和高斯粒子濾波器的強度。與基於相關濾波器或粒子濾波器的現有跟蹤方法相比,所提出的跟蹤器具備多個優勢。首先,它能夠經過弱KCF跟蹤器檢測大規模搜索範圍內的跟蹤目標,並評估高斯粒子濾波器的弱跟蹤器\ rq決策的可靠性,從而作出強有力的決策,所以它能夠解決快速運動,外觀變化,遮擋和從新檢測。其次,它能夠經過高斯粒子濾波器有效處理大範圍的變化。第三,能夠採用重採樣的方式徹底並行實現而不需重採樣,所以便於VLSI的實施,而且能夠下降計算成本。在包含50個具備挑戰性的序列的OTB-2013數據集上進行的大量實驗證實,所提出的算法對16個最早進的跟蹤器
arXiv:https://arxiv.org/abs/1803.05845