YOLOv11 改进 - 注意力机制 | Polarized Self-Attention 极化自注意力:高分辨率保持机制优化细节表征,助力小目标检测

部署运行你感兴趣的模型镜像

前言

本文介绍了极化自注意力(PSA)模块及其在YOLOv11中的结合应用。PSA模块旨在解决细粒度计算机视觉任务中的像素级回归问题,其融合了极化过滤和增强两个关键设计。极化过滤在通道和空间维度保持高分辨率,减少信息损失;增强采用细粒度回归输出分布的非线性函数。我们将PolarizedSelfAttention模块集成进YOLOv11,替换部分原有模块。实验结果表明,PSA能提升标准基线和最新技术的表现,在2D姿势估计和语义分割基准测试中效果显著,展现了其在目标检测领域的应用价值。

文章目录: YOLOv11改进大全:卷积层、轻量化、注意力机制、损失函数、Backbone、SPPF、Neck、检测头全方位优化汇总

专栏链接: YOLOv11改进专栏

介绍

image-20240402215343138

摘要

像素级回归作为细粒度计算机视觉任务中的核心问题,在关键点热图估计与分割掩模生成等应用中具有重要地位。此类回归任务面临显著挑战,主要体现在需在低计算开销条件下对高分辨率输入输出建模长距离依赖关系,以准确估计高度非线性的像素级语义信息。尽管深度卷积神经网络(DCNNs)中的注意力机制已被广泛用于增强长距离依赖建模,但元素特异性注意力机制(如非局部块)存在学习复杂度高且对噪声敏感的问题,而多数简化注意力混合方案则试图在不同任务类型间寻求折衷平衡。针对上述技术瓶颈,本文提出极化自注意力(PSA)模块,该模块融合两项关键设计以实现高质量像素级回归:(1)极化滤波机制:在维持通道与空间注意力计算中高内部分辨率的同时,沿相应维度完全折叠输入张量;(2)增强非线性变换:直接适配典型细粒度回归任务的输出分布特性,如关键点热图的二维高斯分布或二值分割掩模的二维二项分布。PSA模块充分挖掘了其通道专用与空间专用分支的表征潜力,使得顺序与并行布局间仅存在边际性能差异。实验验证表明,PSA模块将标准基线性能提升2至4个百分点,并在二维姿态估计与语义分割基准测试中将最先进技术水平进一步提升1至2个百分点。

创新点

  • 极化滤波(Polarized filteringPolarized):在通道和空间维度保持比较高的分辨率(在通道

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

魔改工程师

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值