Attend to the Difference: Cross-Modality Person Re-identification via Contrastive Correlation

本文提出一种新的跨模态行人重识别方法,通过构建双路径网络和对比相关网络,保留空间结构信息的同时关注模态间差异,实现更准确的身份匹配。

题目:Attend to the Difference: Cross-Modality Person Re-identification via Contrastive Correlation
作者:Shizhou Zhang

一、研究动机
当人类比较两个相似的物体时通常会注意到其间的差异

二、研究目标
1.构建一种双路径跨模态特征学习网络
2.保留固有空间结构的同时,关注跨模态输入图片对之间的差异

三、技术方法
1.Dual-path Spatial-structure-preserving Common Space Network
目的:提取公共特征
结构:两条网络结构相似的支路
步骤:
①特定模态特征提取(特征提取)
②公共特征提取(特征嵌入,将特定模态特征映射到一个公共空间)
在这里插入图片描述

2.Contrastive Correlation Network
目的:使模型注意成对样本之间的差异
结构:内核生成模块、对比关系模块
步骤:
①内核生成模块:为某一样本生成个性化内核(旨在发现与常人不同的特征),并计算两个个性化内核之间的差异作为对比核
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

②对比关系模块:动态生成对比核,提取动态对比特征(区别于不考虑对比的固定特征提取的传统方法),并计算差别分数。

叉乘符号表示相关操作,相关操作是卷积操作,得到的值越大,差距越大:在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
3.Overall Loss Function
在这里插入图片描述
p:预测标签
在这里插入图片描述
在这里插入图片描述
四、提出方法的依据
1.三维特征张量保留了一定的空间结构信息
2.每个核试图说明样本的局部特征。滑动进行采样可捕捉一个人的内在特征,而不受光照、姿态、视角、模式等因素的影响

五、实验效果
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二苏旧局吖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值