一场针对σ=50的图像去噪挑战赛(2025)
- 一、引言
- 二、挑战概况
- 三、方案细节
-
- 1. SRC-B
- 2. SNUCV
- 3. BuptMM (DDU)
- 4. HMiDenoise
- 5. Pixel Purifiers
- 6. Alwaysu
- 7. Tcler Denoising
- 8. cipher vision (Pureformer)
- 9. Sky-D (Two-Stage Framework)
- 10. KLETech-CEVI (HNNFormer)
- 11. xd denoise (SCUNet)
- 12. JNU620 (NAFNet & RCAN Ensemble)
- 13. PSU team (OptiMalDiff)
- 14. Aurora (GAN + NAFNet)
- 15. mpu ai (CTMP)
- 16. OptDenoiser (Two-Stage Framework)
- 17. AKDT (Adaptive Kernel Dilation Transformer)
- 18. X-L (MixEnsemble)
- 19. Whitehairbin (Diffusion Model)
- 20. mygo (U-Net Enhanced)
- 四、总结
本文将对NITRE 2025 的 Image Denoising Challenge Report做个解读,部分参赛团队的技术文章已发表,有兴趣的读者可以去详阅。
参考资料如下:
[1]. [报告地址]
[2]. [NITRE官网地址]
一、引言
图像去噪是low-level视觉中的基础问题,其目标是从退化的输入中重建无噪声图像。在图像采集和处理过程中,可能引入多种噪声类型,如高斯噪声、泊松噪声以及JPEG压缩伪影。这些噪声源使得去噪成为极具挑战性的任务。鉴于其在计算摄影、医学成像和遥感等领域的关键应用,持续的研究努力对于开发更高效、更具通用性的去噪解决方案至关重要。为推动该领域进展,本挑战赛旨在促进去噪方法的发展,并通过标准化基准公平评估性能,创造业内专业人士的交流和合作。
二、挑战概况
竞赛标准
目标: 从噪声水平σ=50的加性高斯白噪声(AWGN)退化图像中恢复干净图像。
评价标准: 以PSNR作为主要评价指标,SSIM为辅,不考虑模型大小和效率。
非常直接,方法不限,参数量计算量不限,运行效率不限,只管涨点。
数据集:
- DIV2K:共1000张2K分辨率RGB图,训练验证测试比为8:1:1
- LSDIR:共86991张高质量高分辨图,验证集1000张,测试集1000张,剩余可用于训练。
训练验证阶段: 除了官方训练集,可以使用外部训练集,例如Flickr2K。并提供100张DIV2K验证数据对。但禁止用验证集参与训练。退化噪声强度统一,即σ=50。
测试阶段: 代码提交至CodaLab评估服务器,用100张DVI2K和100张LSDIR作为测试数据。GT数据均不会公开。
竞赛结果
本挑战赛共吸引了290支注册团队,最终20支队伍提交了有效结果,具体指标排名如下。

冠军团队SRC-B提出了一种结合Transformer和卷积网络的混合架构,在200张测试图像上实现了31.20 dB的PSNR和0.8884的SSIM,显著优于2023年冠军方法1.24 dB。今年前六名小组的成绩均超过了上届的同名次小组,为图像去噪树立了新的标杆。
主要idea和架构
参赛团队所用的策略和框架主要包括以下几点
-
混合架构表现良好
前三名均采用了transformer+卷积的混合架构,兼容全局和局部特征提取能力。
-
数据很重要
冠军团队选择数据集中的高质量图像进行训练,而不是全量数据,来缓解数据分布不平衡的影响。
-
魔鬼藏在细节中
部分细节有助于改善模型,例如小波变换损失约束,渐进式学习策略,分块推理策略。的
-
基于Mamba的新设计
第二名SNUCV小组利用MambaIRv2设计了混合架构,取得了不错的效果。
-
自集成和模型集成
高重叠的多patch混合和多模型结果混合均能提升最终结果。
三、方案细节
1. SRC-B
题目:Dynamic detail-enhanced image denoising frame work

框架:transformer局部恢复能力弱?CNN全局视野不足?那就联合起来!作者combine了Restormer和NAFnet,用前者提取全局特征,用后者增强细节信息,最后加个动态融合block,来平衡去噪能力和细节保留能力。
数据:分为三部分
- 自配200W数据集;
- 官方全量数据集;
- 从1和2里精选出的2800张高质量数据集。(分辨率大,IQ指标高,语义多样性)
训练策略:分三个阶段
- 200W数据集预训练,打基础;
- 官方全量数据微调细节增强模块;
- 高质量数据精调整个模型;
损失函数除了L1、L2,引入了SWT小波损失(有助于跳出局部最优)。渐进式训练,patch size 从256到768。
双引擎降噪王!200W数据打基础,细节微操定胜负。
用Transformer全局视野+CNN细节修复的“双引擎”,配合小波约束和挑图策略,实现降噪能力突破。这套组合拳有想法,也合理。
2. SNUCV
题目:Deep ensemble for Image denoising

框架:MamabIRv2+Xformer+Restormer,三个模型并行输出去噪结果和特征图,然后与原图合并,送入基于Xformer构建的集成模型(功能类似第一名里的融合block),输出最终去噪图。
训练策略:先训练三巨头的去噪能力,然后冻结参数,训练集成模块。其中Xformer、Restormer和集成模型采用渐进式策略,提升鲁棒性和效率。去噪模块用L1损失,集成模型用L1+MSE+高频损失。
推理策略:采用了自集成方式,分patch推理然后融合,设置了多个patch-overlap size,平均后效果有提升。
三巨头联合!MambaIRv2、Xformer、Restormer去噪天团。整体思路与第一名类似,有点可惜,可能就输在数据策略上。
3. BuptMM (DDU)
题目: DDU——Image Denoising Unit using transformer and morphology method

框架:Restormer+HAT,双模型并行推理,根据两个结果做边缘检测,计算边缘差异,根据边缘差异信息进行双结果融合,差异部分取HAT结果,其他部分取两者平均,得到最终去噪图。
训练策略:分别训练Restormer和HAT,同样采用渐进式训练。
推理策略:用TLC技术提升Restormer性能。
双核去噪!Restormer+HAT强强联合。
不过既然不考虑计算复杂度,为何不用网络来融合?有点像第二名的简化版本。
4. HMiDenoise
题目: Hybrid Denosing Method Based on HAT

框架:提出HAT改进结构DB-HAT。
训练策略:渐进式训练,损失函数采用L2,微调阶段L2+SSIM
渐进式特训,超分模型也能打。。。额,HAT真好使?
5. Pixel Purifiers
题目: Denoiser using Restormer and Hard Dataset Mining

框架:Restormer
数据集:调整数据比,DIV2K:LSDIR为12:88时,模型泛化效果最好。
训练策略:利用了硬数据挖掘策略,即在基础训练模型上,选择损失值超过预定义阈值的训练块进行迁移学习,学习率降至初始的1/100。
推理策略:采用几何自集成技术,通过旋转+翻转,然后多个推理结果对齐后叠加取平均。
Restormer YYDS!大力出奇迹,用“难搞样本”特训模型,用自集成增强推理效果。
6. Alwaysu
题目: Bias-Tuning Enables Efficient Image Denoising
框架:Bias-version Restormer,在预训练Restormer新增可学习的偏差参数。
数据集:预训练阶段,800张DIV2K,2650张Flickr2K,400张BSD500,4744张WED。微调阶段,800张DIV2K,1000张LSDIR。
训练策略:PSNR损失函数,冻结预训练参数做微调。
推理阶段:自集成+分块拼接。
Restormer YYDS!大伙省点力吧,噪声模式强度固定,微调不香么?高效省力。
7. Tcler Denoising
题目:Tcler Denoising
框架:改进的PromptIR与改进的MambaIRv2融合。
数据集:常规数据增强,外加USM锐化。
训练策略:渐进式训练,采用了Charbonnier损失和梯度加权的L1损失,平衡像素级精度和边缘保持,损失权重分别为0.8和0.2。
推理策略:自集成。
同样是专门针对“σ=50”的定制方案,PromptIR&MambaIRv2联合去噪,精准打击!
8. cipher vision (Pureformer)
题目: Pureformer: Transformer-Based Image Denoising

框架:提出了Pureformer,多级编码器+特征增强块+多级解码器,transformer块借鉴了Restormer。
训练策略:15个epochs做线性预热,然后用余弦退火。常规数据增强。L1损失函数。
推理策略:几何自集成
自己搭个Transformer架构,但是Restormer YYDS!
9. Sky-D (Two-Stage Framework)
题目:A Two-Stage Denoising Framework with Generalized Denoising Score Matching Pretraining and Supervised Fine-tuning
框架:团队自研的时间条件扩散模型架构(已发文章)。
训练策略:基于广义去噪分数匹配(GDSM)策略做自监督训练,为后续有监督训练提供高质量初始化参数,然后进行有监督微调。GDSM预训练加速了微调过程的收敛和模型泛化能力。渐进式学习;
损失函数:自监督阶段用GDSM损失,监督微调阶段用一致性损失
J ′ ( θ ) = E X t d a t a , τ , X t [ ∥ γ ′ ( τ , σ t t a r g e t ) h θ ( X t , t ) + δ ′ ( τ , σ t t a r g e t ) X t − X t d a t a ∥ 2 ] J'(\theta) = \mathbb{E}_{\mathbf{X}_{t_{\mathrm{data}}}, \tau, \mathbf{X}_t} \left[ \left\lVert \gamma'(\tau, \sigma_{t_{\mathrm{target}}}) \, \mathbf{h}_\theta(\mathbf{X}_t, t) + \delta'(\tau, \sigma_{t_{\mathrm{target}}}) \, \mathbf{X}_t - \mathbf{X}_{t_{\mathrm{data}}} \right\rVert^2 \right] J

最低0.47元/天 解锁文章

707

被折叠的 条评论
为什么被折叠?



