【AAAI2022】Efficient Non-Local Contrastive Attention for Image Super-Resolution (ENLCA)

本文探讨了非局部注意力机制在图像超分辨率(SISR)任务中的局限性,提出了一种名为ENLCA(Efficient Non-Local Contrastive Attention)的新方法,以降低计算成本并提高模型性能。通过引入对比学习,ENLCA能够更有效地分离相关和无关特征。实验证明,ENLCA在保持线性复杂度的同时,提升了SR网络的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

本文意不在与翻译,在于解读文章,望周知~
关于文章的点评以及可借鉴到自己论文实验的idea,在文末给出

0、论文的Motivation

  • 虽然非局部注意力(Non-Local Attention, NLA)机制可利用自然图像中的内在特征关联信息去提升SISR任务的性能,但是它给噪声信息也会赋予较大的权重,这影响了模型最终的性能,同时其消耗的资源与输入成二次方的关系,这阻碍了其在SR领域中的应用。
  • 针对NLA这点不足,文中提出了一种 efficient 类型的非局部对比注意力(Efficient Non-Local Contrastive Attention,ENLCA)来完成场距离的视觉建模,以及利用更多相关的非局部特征。
    • 至于为什么本文不直接说高效的,且听下文分解~
    • ENLCA 主要有两个部分:
      • Efficient Non-Local Attention (ENLA) :用核方法去逼近指数函数。
      • Sparse Aggregationÿ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值