YOLOv11改进 | 注意力篇 | YOLOv11引入24年Local Importance-based Attention(LIA)注意力机制,并构建C2PSA_LIA

1.LIA介绍

1.1  摘要:降低延迟是近年来超分辨率(SR)研究的一个大趋势。尽管最近的进展利用了各种卷积块、注意模块和主干来释放卷积神经网络(ConvNet)的全部潜力,但实现实时性能仍然是一个挑战。为此,我们提出了PlainUSR,一个新的框架,它结合了三个相关的修改来加速ConvNet以实现高效的SR。对于卷积块,我们通过重新参数化技巧将较轻但较慢的MobileNetv 3块压缩为较重但较快的香草卷积块,以平衡存储器访问和计算。在注意力模块中,通过区域重要性映射和门控来调节输入,引入基于局部重要性的注意,在1阶注意延迟内实现高阶信息交互.对于骨干网,我们提出了一个简单的U-Net,它执行信道区分拆分和级联。在实验阶段,PlainUSR与最先进的面向延迟和面向质量的方法相比,表现出令人印象深刻的低延迟、出色的可扩展性和极具竞争力的性能。特别是,与最近的NGswin相比,PlainUSR-L的速度快16.4倍,性能也很有竞争力。

官方论文地址:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值