論文解讀:《Learning Generalisable Omni-Scale Representations for Person Re-Identification(OSNet)》

介紹 有效的行人再識別應該具有區分性,學習到的特徵表示既能區分外貌相似的行人,又能在不額外訓練的情況下進行跨數據集部署。本文提出了新的CNN架構來應對這兩個挑戰。首先,是提出了一種「全尺度網絡(OSNet)」的CNN結構,不僅可以捕獲不同的空間尺度,同時也能封裝這些尺度的協同組合,即全尺度特徵。基本構建塊由多個卷積流組成,每個卷積流檢測不同尺度範圍的特徵。對於全尺度特徵學習,提出了一種統一的聚合門
相關文章
相關標籤/搜索