
FusionNet: Multi-model Linear Fusion Framework for Low-light Image Enhancement(NTIRE,2025)
本文将对 FusionNet: Multi-model Linear Fusion Framework for Low-light Image Enhancement,这篇暗光增强算法进行讲解。参考资料如下:
专题介绍
在低光照环境下,传统成像设备往往因画面昏暗、细节丢失而受限。LLIE(低照度暗光增强)技术应运而生,它通过提升图像亮度、对比度,减少噪点并恢复色彩细节,让暗夜变得清晰可见。
LLIE技术从传统方法如直方图均衡化、Retinex模型等起步,近年来借助深度学习,尤其是卷积神经网络(CNN),GAN模型,扩散模型实现了质的飞跃。这些算法能自动学习图像特征,精准处理低光照图像,效果显著优于传统技术。
本专题将聚焦LLIE技术的核心原理、应用案例及最新进展,让我们一起见证LLIE如何点亮暗夜,开启视觉新视界!欢迎一起探讨交流!
系列文章如下
【1】ZeroDCE
【2】HVI
【3】CLIP-LIT
【4】GLARE
【5】Retinexformer
【6】SG-LLIE
【7】GPP-LLIE
一、研究背景
1.低光图像增强的挑战:低光图像存在亮度低、对比度差、噪声高等问题,影响视觉感知和计算机视觉任务(如目标检测)。
2.现有方法的局限:
- 深度学习方法(如CNN、Transformer)在单模型性能上有进展,但单一网络或颜色空间(如sRGB、HSV)难以兼顾全局与局部特征。
- 现有融合策略(如串行连接、多阶段训练)存在参数爆炸、训练耗时、特征错位等问题。
3. 研究目标:提出高效的多模型融合框架,结合不同网络和颜色空间的优势,提升低光图像增强的鲁棒性和性能。
该方法在CVPR2025的NTIRE低光增强挑战赛中获得第一名。
二、FusionNet方法
1.总体方案
用一句话来总结这篇文章可以概况为该文章提出了高效的多模型融合框架,结合不同网络和颜色空间的优势,来提升低光图像增强的鲁棒性和性能。

2.详细方案
2.1. 核心架构
- 多模型并行集成:整合三种互补模型,三个模型单独训练,最后把结果进行加权融合:
- ESDNet(CNN-based):提取局部细节特征。
- Retinexformer(Transformer-based):捕捉全局上下文。
- CIDNet(HVI颜色空间):解耦亮度与颜色,减少色彩失真。
- 线性融合策略:通过线性加权组合三模型输出,公式为 I H Q = ∑ k i F ( I L Q ) I_{HQ} = \sum k_i F(I_{LQ}) IHQ=∑kiF(ILQ),确保亮度稳定性( ∑ k i = 1 \sum k_i = 1 ∑ki=1),其中每个模型对应的 k i k_i ki的值则通过实验确定,具体方法是求解使得测试集PSNR和SSIM最大的 k i k_i ki的值作为最终值。比如在本文中峰值信噪比(PSNR)和结构相似性指数(SSIM)在 k 1 = 0.16 k_{1}=0.16 k1=<

最低0.47元/天 解锁文章
1976

被折叠的 条评论
为什么被折叠?



