Person ReID】Spindle Net 论文解读

网友投稿 777 2022-05-30

论文名称:Spindle Net: Person Re-identification with Human Body Region Guided Feature Decomposition and Fusion

论文地址:https://openaccess.thecvf.com/content_cvpr_2017/papers/Zhao_Spindle_Net_Person_CVPR_2017_paper.pdf

一、存在问题

行人重识别问题中,经常会出现两个问题:

跨图片(即不同图片)的语义信息不对齐问题

局部遮挡现象

二、贡献

提出 Body Region Guided Spindle Net,有两个阶段:

FEN:特征抽取网络

FFN:特征融合网络

构建了自有数据集:SenseReID,与其他数据集区别在于该数据集是由12个真实场景的监控所捕获并且它不包含训练数据,仅用于测试。根据camera index将某个人的图像分为probe set和gallery set。probe set包含522个ID,gallery set包含1717个ID其中包括仅由一台camera捕获的1195个附加ID

三、网络结构

步骤一:预定义

得到14个姿态点:借鉴CPM(一种姿态点估计模型),使用序列框架(sequential framework)以从粗到细的方式生成相应图,对身体关节位置产生越来越精细的估计,由于CPM计算成本高,论文进行了三处修改,降低了模型复杂性。

共享前几层的卷积参数,以提取图像特征

将池化层替换为步长为2的卷积层,以减小特征图大小

为了快速计算,输入图像的大小,框架阶段数和卷积层的通道数量都减少了。

产生7个身体区域(Body Region Proposal Network)

基于RPN根据14个姿态点生产7个part,三个宏观区域(头、上身、下身)和四个微观区域(左手、右手、左腿、右腿)

RPN最早出现于Faster RCNN(S. Ren, K. He, R. Girshick, and J. Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. In NIPS, 2015. 2)

步骤二:对7个区域进行层次特征提取

FEN网络提取特征

1个全局特征和7个局部特征均通过池化后得到256维的特征向量。FEN包含了3个卷积模块和2个ROI池化模块。

FEN-C1:分别对原图经过CNN网络,其中一个是经过RPN得到7个part

FEN-P1:通过ROI pooling 得到三个宏观区域(头、上身、下身)经过FEN-C2 CNN网络得到其特征,

FEN-P2:通过ROI pooling 得到四个微观区域(左手、右手、左腿、右腿)的特征

综上, 图像越大的区域,经过CNN越多

FFN网络层次性地融合特征

FFN-1:先融合小特征,即左右腿特征和左右手特征

FFN-2:再融合大特征,即利用腿部特征和下半身得到下半身特征,手部特征和上半身得到上半身特征

FFN-3:最后融合身体特征,即将头部、上身、下身进行融合

FFN-4:将身体特征和一开始的全局特征,融合为最终特征

四、实验

1、实验数据集以及划分策略

【Person ReID】Spindle Net 论文解读

2、比较结果

AI平台 Image 机器视觉

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:【精选单品】多人多端,实时协同交互,更高效的营销场景如何搭建?
下一篇:如何上传HTML5应用到 Cloud Foundry环境下
相关文章