CVPR2020超分辨率重建论文阅读笔记

本文介绍了三种先进的超分辨率重建方法:PULSE、DualRegressionNetworks和MZSR。这些方法解决了传统超分辨率重建面临的挑战,如病态问题、MSE指标缺陷等。PULSE引入了无监督GAN,DualRegressionNetworks提出了对偶网络框架,而MZSR则结合了元学习和零样本超分辨率技术。
  • 为什么要进行超分辨率重建:
    1.视觉效果不吸引人
    2.影响下游方法使用,如分割等
    3.电子显示产品分辨率提高,需要更高分辨率的图像
  • 超分辨率重建问题面临难点和存在问题如下:
    1.病态问题:一对多,同样的LR图像对应无数解
    2.MSE指标可能导致结果平滑,且没有关注纹理关系信息
    3.下采样方式常为预设,不能够适配现实情况
    4.成对低高分辨率图像难以获得

一. PULSE:

  • 文章 PLUSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models
  • 链接 https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2003.03808
  • 代码 github.com/adamian98/pu
  • 贡献:
    1.一个新的超分辨率重建的处理范式。不同于以往对所得的多种重建HR结果平均处理获得最终结果的做法,而是令产生的HR图像能够降采样获得正确的输入LR图像。
    2.一种解决超分辨率重建任务的新方法:无监督GAN。
    3.高维高斯先验下隐空间探索的一种原始方法。
  • 方法:
    1.损失函数上的改进
    将损失函数由∫M∩R∣∣IHR−ISR∣∣ppdP(IHR)\int_{M\cap R}||I_{HR}-I_{SR}||^p_pdP(I_{HR})MRIHRISRppdP(I
### CVPR 2025 中与超分辨率重建相关的研究或论文 #### 种类繁多的方法和技术 近年来,随着深度学习技术的发展,超分辨率重建领域涌现了许多创新性的算法和框架。CVPR 2025 提供了一个平台,展示了最新的研究成果。这些成果主要集中在以下几个方向:基于生成对抗网络(GANs)、扩散模型、以及混合架构的设计。 #### SeedVR 方法概述 SeedVR 是一项针对视频恢复的任务提出的解决方案[^2]。该方法的核心设计理念在于窗口注意力的转移机制,这种机制使得其能够在处理长视频序列时更加高效。具体而言,SeedVR 利用了因果视频自动编码器的技术,并结合了混合图像和视频训练策略,进一步提升了其在不同场景下的适用性和鲁棒性。这种方法不仅解决了传统方法中的分辨率限制问题,还显著提高了时间一致性细节的恢复能力。 #### Arbitrary-steps Image Super-resolution via Diffusion Inversion 另一篇值得关注的研究是《Arbitrary-steps Image Super-resolution via Diffusion Inversion》[^2]。这篇论文提出了一种全新的视角来看待单步或多步的图像超分辨率问题。通过引入扩散逆过程的概念,作者成功构建了一个灵活且高效的框架,允许用户自由调整所需的放大倍率而无需重新设计整个网络结构。此方法极大地增强了系统的灵活性并降低了计算成本。 #### Residual Dense Network (RDN) 回顾历史可以看到,《Residual Dense Network for Image Super-Resolution》也是不可忽视的经典之作之一[^3]。虽然发表于较早时期,但它所倡导的理念——即充分挖掘低分辨率图片内部存在的多层次特性并通过全局特征融合加以利用——至今仍然具有重要价值。特别是对于那些希望深入理解如何优化现有神经网络性能的研究者来说,这份材料提供了宝贵的启示。 ```python import torch.nn as nn class RDB(nn.Module): def __init__(self, growth_rate=64, n_dense_layers=8): super(RDB, self).__init__() layers = [] for i in range(n_dense_layers): layer = nn.Conv2d(growth_rate * i + growth_rate, growth_rate, kernel_size=3, padding=1) layers.append(layer) self.dense_layers = nn.Sequential(*layers) def forward(self, x): local_features = [] for layer in self.dense_layers: out = layer(x) local_features.append(out) x = torch.cat(local_features, dim=1) return x ``` 以上代码片段展示的是一个简化版的残差密集块(RDB),它是构成 RDN 的基本单元[^3]。 --- ####
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值