Attribute-Recognition行人屬性識別資料

(摘自王逍同窗的論文arxiv-2019+Pedestrian Attribute Recognition A Survey)html

1. 數據集

Dataset Pedestrians Attribute Source
PETA Dataset 19000 61 binary and 4 multi-class attributes outdoor & indoor
RAP Dataset 41585 69 binary and 3 multi-class attributes indoor
RAP 2.0 Dataset 84928 69 binary and 3 multi-class attributes indoor
PA-100K Dataset 10w 26 binary attributes outdoor
WIDER Attribute Dataset 13789 14 binary attributes WIDER images
Market-1501_Attribute 32668 26 binary and 1 multi-class attributes outdoor
DukeMTMC-Attribute 34183 23 binary attributes outdoor
Parse27k Dataset 27000 8 binary and 2 multi-class orientation attributes outdoor
APiS 3661 11 binary and 2 multi-class attributes KITTI , CBCL Street Scenes,INRIA and SVS
Database of Human Attributes 9344 27 binary attributes image site Flickr
CRP Dataset 27454 1 binary attributes and 13 multi-class attributes outdoor
Clothing Attributes Dataset 1856 23 binary attributes and 3 multi-class attributes Sartorialist and Flickr
Berkeley-Attributes of People dataset 8035 9 binary attributes H3D dataset PASCAL VOC 2010

備註: 加粗的數據集是已經獲取到的,RAP和RAP2.0數據集須要聯繫做者,以後會拿到.ios

2. 實現方法總結及已有資源

title Github資源(圖中橙色框標註):git

3.詳細介紹

3.1 基於全局特徵的屬性檢測方法

###3.1.1 FT-CNN(Re-id Using CNN Features Learned from Combination of Attributes(ICPR2016)) title 在Alexnet的4096維特徵上,用多個全鏈接分類器表徵各個特徵。很明顯慘不忍睹。 titlegithub

3.2 基於局部特徵的行人屬性檢測方法

3.2.1 Poselets (ICCV-2011)

title

3.2.2 PANDA(CVPR-2014)

title 其中關鍵poselet採用3.2.1《Describing people: A poselet-based approach to attribute classification》中的劃分方法。經過融合局部特徵和總體特徵,提升了準確率。 title算法

3.2.3 MLCNN (ICB-2015)

title 採用網格劃分,部分融合網絡

3.2.4 ARAP (BMVC2016)

title 自適應檢測關鍵點和對應Bbox,而後進行屬性檢測。端到端。app

3.2.5 PGDM (ICME-2018)

title

3.2.6 LGNet (BMVC-2018)

title

3.2.7 總結

算法結合了全局和細粒度部件的特徵,其中身體部位的定位是經過分割算法獲得,如:part detection, pose estimation, poselets or proposal generation algorithm. 算法總體準確率和部件分割的算法有很大關係。ide

3.3 基於注意力機制的屬性檢測方法

3.3.1 HydraPlus-Net (ICCV-2017)

SenseTime的論文,將多層注意力機制圖多向映射到不一樣的特徵層。。HP-net包含兩部分,M-Net和AF-Net。函數

  • Main Net(M-Net): 單純的CNN結構,論文的實現是基於inception_v2,包含三個inception block,還包含幾個低層卷積層;
  • Attentive Feature Net(AF-Net):三個分支,每一個分支有三個inception_v2 block和一個MDA title AF-Net包含三個子網絡分支,並使用MDA模塊加強,即F(αi)F(αi),其中αiαi是由inception塊輸出特徵生成的注意力圖,圖中使用黑實線標記。隨後應用到kth塊的輸出,圖中用虛紅線標示。每一個MDA模塊,有一條注意力生成連接,三條注意力特徵構造連接。不一樣的MDA模塊,注意力圖由不一樣的inception模塊生成,以後乘到不一樣層的特徵圖,生成不一樣層在注意特徵。 MDA模塊的一個示例以下圖所示: title 如下是可視化特徵: title

3.3.2 DIAA (ECCV-2018)

title

3.4 繼續序列預測的屬性檢測方法

3.4.1 JRL (ICCV-2017)

title

3.4.2 RCRA (AAAI-2019)

title

##3.5 基於圖的屬性檢測方法 ###h3.5.1 VSGR (AAAI-2019) titlegoogle

相關文章
相關標籤/搜索