【HAT】 Activating More Pixels in Image Super-Resolution Transformer

文章介绍了HAT,一种用于图像超分辨率的混合注意力Transformer,旨在解决Transformer在局部信息利用上的局限性。HAT结合通道注意力和自注意力,通过重叠交叉注意力模块增强信息聚合,同时探索了同一任务预训练策略的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Activating More Pixels in Image Super-Resolution Transformer

(在图像超分辨率transformer中激活更多的像素)

作者:Xiangyu Chen1,2 , Xintao Wang3 , Jiantao Zhou1 , and Chao Dong2,4

单位:1University of Macau 2Shenzhen Institute of Advanced Technology,

Chinese Academy of Sciences 3ARC Lab, Tencent PCG 4Shanghai AI Laboratory

代码:GitHub - chxy95/HAT: Activating More Pixels in Image Super-Resolution Transformer

论文地址:https://arxiv.org/pdf/2205.04437

、问题与动机

尽管现阶段作者发现一些基于transformer的SR模型获得了更高的指标性能,但由于使用信息的范围有限,在某些情况下它产生的结果不如 RCAN。 这些现象说Transformer对局部信息的建模能力更强,但其利用信息的范围有待扩大。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值