CVPR 2017 Person Re-ID相關論文
- Spindle Net: Person Re-Identification With Human Body Region Guided Feature Decomposition and Fusion 【github】
- Beyond Triplet Loss: A Deep Quadruplet Network for Person Re-Identification
- One-Shot Metric Learning for Person Re-Identification
- Person Re-Identification in the Wild 【github】
- Scalable Person Re-Identification on Supervised Smoothed Manifold
- Joint Detection and Identification Feature Learning for Person Search 【github】
- Consistent-Aware Deep Learning for Person Re-Identification in a Camera Network
- Re-Ranking Person Re-Identification With k-Reciprocal Encoding
- Multiple People Tracking by Lifted Multicut and Person Re-Identification
- Quality Aware Network for Set to Set Recognition 【github】
- Point to Set Similarity Based Deep Feature Learning for Person Re-Identification
- Fast Person Re-Identification via Cross-Camera Semantic Binary Transformation
- See the Forest for the Trees: Joint Spatial and Temporal Recurrent Neural Networks for Video-Based Person Re-Identification
- Learning Deep Context-Aware Features Over Body and Latent Parts for Person Re-Identification
論文打包下載:【下載地址】
分享幾篇有價值的 idea:
2. Beyond Triplet Loss
在 Triplet 基礎上的改進,提出了一個 quadruplet,在 Ref-Pos 和 Ref-Neg之間的 strong push 基礎上,額外添加了一個 weak push,即 Ref-Neg 和 Neg-Neg 間的距離。
如下圖所示:

再來看公式:
4. Person Re-Identification in the Wild
主要貢獻是提出了一個數據集 - PRW,主要針對戶外場景;另外,提出一個假設:好的行人檢測方法能夠提升 Re-Id 精度,並提出 Confidence Weighted Similarity (CWS) 機制。

7. Consistent-Aware Deep Learning for Person Re-Identification in a Camera Network
一種整體度量方法,通過CNN提取特徵,採用相似性矩陣進行全局優化。
來看總體框架圖:

13. See the Forest for the Trees
這是一篇基於視頻的re-id方法,和基於圖像的方法相比,有很多優點,不表。
代表特徵:
- 採用 temporal attention model(TAM),在行人視頻中度量每一幀的重要性,選擇最適合的幀進行特徵提取;
- 採用 spatial recurrent model(SRM)進行上下文信息挖掘,是一種有效的距離度量思路;
- 結合特徵提取和距離度量,實現端到端的訓練;
整體架構圖:

TAM過程:

SRM 示意:

14. Learning Deep Context-Aware Features Over Body and Latent Parts for Person Re-Identification
主要有兩個貢獻:
1) Multi-scale Context-aware Network
通過 膨脹卷積(dilated convolution) 替傳統的多個卷積核(3*3,5*5,7*7)的方法,獲得目標的 context 信息,通過增加多尺度信息(對應多個感受野)提高特徵提取的能力。
膨脹卷積可以見下圖:

2)Latent Part Localization
通過STN(spatial transformer networks)對局部特徵進行定位,代替傳統方法對整體圖像切片的方式,可以獲取更準確的 Part 信息,這對於特徵比對非常重要。
STN 可以自己腦補一下,來看整體框架圖:

通過整體和局部結合的方式進行 Feature Fusion,本文主要強調特徵提取,距離度量採用傳統的歐式距離度量方式。
推薦閱讀:
※ICCV 2017 Person Re-ID相關論文
※AlignedReID 論文筆記
※CVPR 2018 Person Re-ID相關論文
TAG:行人重識別 |

