Part-aware Attention Network for Person Re-Identification

部署运行你感兴趣的模型镜像

题目:Part-aware Attention Network for Person Re-Identification
作者:Wangmeng Xiang

一、要解决的问题(研究动机):
(1)“多层次特征聚合”方法回会忽略不同层次特征图之间的长程联系
(2)基于特征提取的horizon pooling part会引起特征的误对齐

二、研究目标
(1)通过局部特征图与源特征图之间的一致性来计算注意力
(2)将高层局部特征和中间层特征联系起来,通过高层局部特征的引导,从中间层特征图中进行二次信息的生成

三、提出方法的依据
(1)中间层特征携带更多细粒度特征
(2)不同层的特征均映射到最后一层
(3)在所有空间点上计算

四、技术方法
在这里插入图片描述

用Part-aware Attention Network (PAN)来增强特征提取器的注意能力。
组成:part-aware attention module(局部注意力模块) and part feature learning module(局部特征学习模块)
(1)part-aware attention module(局部注意力模块)
在这里插入图片描述

第一步:得到Pi与X之间的一致性分数
第二步:将分数作为X的权重
第三步:进行归一化
在这里插入图片描述

在这里插入图片描述
综合上式可得到:
在这里插入图片描述
(2)part feature learning module(局部特征学习模块)
在这里插入图片描述

第一步:分别计算在视角i下,第j块的空间、通道注意力掩模,并将二者结合起来
第二步:将注意力与最后一层输出相乘,计算局部特征
在这里插入图片描述
在这里插入图片描述

五、方法创新归纳
(1)考虑了不同层特征图之间的关系
(2)解决了特征误对齐的问题

六、实验效果
在这里插入图片描述

八、我的体会和思考
需要注意在卷积过程中特征所发生的变化
不同卷积层之间有潜在的联系

您可能感兴趣的与本文相关的镜像

Wan2.2-T2V-A5B

Wan2.2-T2V-A5B

文生视频
Wan2.2

Wan2.2是由通义万相开源高效文本到视频生成模型,是有​50亿参数的轻量级视频生成模型,专为快速内容创作优化。支持480P视频生成,具备优秀的时序连贯性和运动推理能力

### Interior Attention-Aware Network for Infrared Small Target Detection In the field of computer vision and image processing, infrared small target detection poses significant challenges due to low contrast between targets and background as well as complex backgrounds. The interior attention-aware network (IAAN) is designed specifically to address these issues by focusing on enhancing feature extraction capabilities. The IAAN incorporates an innovative internal spatial-temporal attention mechanism that allows selective emphasis on informative regions within images while suppressing irrelevant areas[^1]. This approach effectively improves the signal-to-noise ratio during preprocessing stages before feeding data into subsequent convolutional layers. By doing so, this method can better capture subtle changes associated with smaller objects even under adverse conditions such as noise or occlusion. Moreover, through multi-scale context aggregation modules integrated throughout its architecture, IAAN manages not only local but also global contextual information simultaneously. Such design choices contribute significantly towards achieving higher accuracy rates when identifying faint signals embedded against cluttered backdrops typical found in real-world scenarios involving thermal imagery analysis applications like military surveillance systems or autonomous vehicle navigation tasks where reliable object recognition plays a crucial role. For implementation purposes, here's how one might define part of the model using PyTorch: ```python import torch.nn as nn class SpatialAttention(nn.Module): def __init__(self, kernel_size=7): super(SpatialAttention, self).__init__() assert kernel_size in (3, 7), 'kernel size must be 3 or 7' padding = 3 if kernel_size == 7 else 1 self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): avg_out = torch.mean(x, dim=1, keepdim=True) max_out, _ = torch.max(x, dim=1, keepdim=True) scale = torch.cat([avg_out, max_out], dim=1) scale = self.conv1(scale) return x * self.sigmoid(scale) # Example usage integrating spatial attention module inside CNN backbone. backbone = ... # Define your base ConvNet structure here attention_module = SpatialAttention() output_features = attention_module(backbone(input_image)) ```
评论 6
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二苏旧局吖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值