1. 引言
图像去雾是从受到大气散射影响的模糊图像中还原清晰的景物细节。在监控、自动驾驶、灾后救援、遥感观测等领域,图像去雾被广泛应用,以提升图像质量和后续智能化分析处理任务的性能。传统的去雾方法依赖大量配对的有雾和无雾图像,难以在真实场景中应用。本文介绍了一种基于无监督学习的图像去雾算法,通过对CycleGAN模型的改进,实现了无需配对图像的高效去雾。
2. 算法概述
该算法基于CycleGAN模型,通过引入U-Net结构、基于CoordAttention(空间位置注意力)的残差网络和SK Fusion特征融合层,利用通道注意力机制来融合多个模型,提升了去雾效果。同时,引入了感知损失函数,使生成的图像不仅在像素级别上准确,还在视觉上更接近真实图像。
3. 网络架构设计
-
生成器设计:生成器采用U-Net结构,包含Encoder、Converter和Decoder三个部分。Converter部分使用了带有CoordAttention的残差网络,Decoder部分引入了SK Fusion特征融合层。
-
判别器设计:判别器用于判断生成图像的真伪,通过对抗学习提升生成器的性能。
-
损失函数设计:结合了CycleGAN的对抗损失、循环一致性损失、身份一致性损失和感知损失,优化了去雾效果。
4. 实验结果
在RESIDE数据集上的实验表明,改进后的算法在PSNR和SSIM指标上优于其他无监督算法,部分指标甚至优于有监督算法。消融实验验证了SK Fusion和感知损失函数对去雾效果的积极影响,CoordAttention模块的作用相对较小。
5. 结论
该算法在无监督图像去雾领域取得了显著进展,具有较高的实用价值和推广潜力。通过改进的CycleGAN损失模型和感知函数,算法在保持去雾效果的同时,显著降低了计算资源需求,为实际应用提供了可行的解决方案。
6. 未来展望
未来的研究可以考虑将无监督学习的数据驱动能力与Transformer强大的内图像内部结构解析能力结合,提升去雾性能。同时,如何对去雾后的图像质量进行评价,如何更好的判别图像去雾后的质量优劣,也是图像去雾领域的难题之一。