標籤:

CVPR 2017 Person Re-ID相關論文

  1. Spindle Net: Person Re-Identification With Human Body Region Guided Feature Decomposition and Fusion 【github】
  2. Beyond Triplet Loss: A Deep Quadruplet Network for Person Re-Identification
  3. One-Shot Metric Learning for Person Re-Identification
  4. Person Re-Identification in the Wild 【github】
  5. Scalable Person Re-Identification on Supervised Smoothed Manifold
  6. Joint Detection and Identification Feature Learning for Person Search 【github】
  7. Consistent-Aware Deep Learning for Person Re-Identification in a Camera Network
  8. Re-Ranking Person Re-Identification With k-Reciprocal Encoding
  9. Multiple People Tracking by Lifted Multicut and Person Re-Identification
  10. Quality Aware Network for Set to Set Recognition 【github】
  11. Point to Set Similarity Based Deep Feature Learning for Person Re-Identification
  12. Fast Person Re-Identification via Cross-Camera Semantic Binary Transformation
  13. See the Forest for the Trees: Joint Spatial and Temporal Recurrent Neural Networks for Video-Based Person Re-Identification
  14. Learning Deep Context-Aware Features Over Body and Latent Parts for Person Re-Identification

論文打包下載:【下載地址】

分享幾篇有價值的 idea:

2. Beyond Triplet Loss

在 Triplet 基礎上的改進,提出了一個 quadruplet,在 Ref-Pos 和 Ref-Neg之間的 strong push 基礎上,額外添加了一個 weak push,即 Ref-Neg 和 Neg-Neg 間的距離。

如下圖所示:

再來看公式:

4. Person Re-Identification in the Wild

主要貢獻是提出了一個數據集 - PRW,主要針對戶外場景;另外,提出一個假設:好的行人檢測方法能夠提升 Re-Id 精度,並提出 Confidence Weighted Similarity (CWS) 機制。

7. Consistent-Aware Deep Learning for Person Re-Identification in a Camera Network

一種整體度量方法,通過CNN提取特徵,採用相似性矩陣進行全局優化。

來看總體框架圖:

13. See the Forest for the Trees

這是一篇基於視頻的re-id方法,和基於圖像的方法相比,有很多優點,不表。

代表特徵:

  1. 採用 temporal attention model(TAM),在行人視頻中度量每一幀的重要性,選擇最適合的幀進行特徵提取;
  2. 採用 spatial recurrent model(SRM)進行上下文信息挖掘,是一種有效的距離度量思路;
  3. 結合特徵提取和距離度量,實現端到端的訓練;

整體架構圖:

TAM過程:

SRM 示意:

14. Learning Deep Context-Aware Features Over Body and Latent Parts for Person Re-Identification

主要有兩個貢獻:

1) Multi-scale Context-aware Network

通過 膨脹卷積(dilated convolution) 替傳統的多個卷積核(3*3,5*5,7*7)的方法,獲得目標的 context 信息,通過增加多尺度信息(對應多個感受野)提高特徵提取的能力。

膨脹卷積可以見下圖:

2)Latent Part Localization

通過STN(spatial transformer networks)對局部特徵進行定位,代替傳統方法對整體圖像切片的方式,可以獲取更準確的 Part 信息,這對於特徵比對非常重要。

STN 可以自己腦補一下,來看整體框架圖:

通過整體和局部結合的方式進行 Feature Fusion,本文主要強調特徵提取,距離度量採用傳統的歐式距離度量方式。


推薦閱讀:

ICCV 2017 Person Re-ID相關論文
AlignedReID 論文筆記
CVPR 2018 Person Re-ID相關論文

TAG:行人重識別 |