EnlightenGAN: Deep Light Enhancement without Paired Supervision--论文阅读笔记

本文介绍了一种无监督的生成对抗网络EnlightenGAN,它能在没有低光-正常光配对的情况下提升图像质量,通过全局-局部鉴别器、自特征保留损失和注意力机制克服训练难题。实验结果表明,EnlightenGAN在视觉质量、主观评价和实际应用中超越现有方法,且适用于不同领域的低光图像增强。
  1. Introduction
    一种高效无监督的生成对抗网络,称为EnlightenGAN,可以在没有低/正常光图像对的情况下进行训练
  2. Difficulties
    1)同步捕获损坏和地面实况图像相同的视觉场景是非常困难甚至不切实际的(例如,光线和普通光照图像对在同一时间)
    2)从干净的图像中合成损坏的图像有时会有帮助,但这种合成的结果通常不够逼真,当训练后的模型应用于真实的低光图像时,会产生各种伪影
    3)特别对于低光增强问题,在低光图像中可能没有唯一的或定义良好的高光真实图像。例如,任何从黎明到黄昏拍摄的照片都可以被看作是在同一场景拍摄的午夜照片的高亮版本。
    考虑到上述问题,我们的首要目标是增强低光照片与空间变化的光照条件和过度/不足的曝光伪影,而配对的训练数据是不可用的。
  3. Contribution
    1)EnlightenGAN是第一个成功地将非配对训练引入低光图像增强的作品。这种训练策略消除了对成对训练数据的依赖,使我们能够使用来自不同领域的更大种类的图像进行训练。它还避免了以前的工作[15,5,16]隐式依赖的任何特定数据生成协议或成像设备的过度拟合,从而显著改进了现实世界的泛化。
    2)EnlightenGAN通过引入下列两个操作,获得了显著的性能。(i)一个处理输入图像中空间变化光照条件的全局-局部鉴别器结构;(ii)自正则化思想,通过自特征保留损失和自正则注意机制来实现。自正则化对于我们的模型的成功是至关重要的,因为在不配对的情况下,没有强有力的外部监督形式可用。
    3)通过综合实验,将EnlightenGAN与几种先进的方法进行了比较。测量结果包括视觉质量、无参考图像质量评估和人的主观调查。所有的结果都一致认可EnlightenGAN的优越性。此外,与现有的配对训练增强方法相比,EnlightenGAN被证明特别容易和灵活地用于增强不同领域的真实低光图像。
  4. Architecture
    在这里插入图片描述
  5. Method
    A. Global-Local Discriminators
    为了自适应地增强局部区域,在提高全局光照的同时,我们提出了一种新的全局-局部鉴别器结构,该结构使用PatchGAN进行真假鉴别。除了图像级全局鉴别器,我们还添加了一个局部鉴别器,通过从输出和真实的正常光照图像中随机裁剪局部小块,并学习区分它们是真实的(与真实图像)还是虚假的(与增强的输出)。这种全局-局部结构保证了增强图像的所有局部区域看起来都像真实的自然光,这对于避免局部过曝或低曝至关重要,我们的实验稍后将揭示这一点。
    此外,对于全局判别器,我们利用最近提出的相对判别器结构[35]估计真实数据比虚假数据更真实的概率,并指导生成器合成比真实图像更真实的伪图像。相对论判别器的标准函数是:在这里插入图片描述
    其中C表示判别器网络,xrx_rxrxfx_fxf分别表示真实数据和虚假数据的分布,σ\sigmaσ表示sigmoid激活函数。我们稍微修改了相对论判别器,用最小二乘GAN(LSGAN)损失代替了sigmoid函数最后全局判别器D和生成器G的损失函数为:在这里插入图片描述
    对于局部判别器,我们每次从输出图像和真实图像中随机裁剪5个patch。这里我们采用原LSGAN作为对抗性损失,如下:
### LLNet:一种用于自然低光图像增强的深度自编码器方法 LLNet 是一种基于深度自编码器架构的图像增强方法,专门设计用于处理自然弱光条件下的图像。该网络利用叠置稀疏去噪自动编码器(SSDA)来学习低光图像中的基本信号特征,并通过端到端的方式实现对比度增强和噪声抑制。 在 LLNet 中,输入图像是低亮度且含有噪声的图像。网络结构相对简单,采用编解码器的形式,其中编码器负责提取图像的关键特征,而解码器则利用这些特征重建高质量的输出图像。LLNet 的核心优势在于其能够同时进行对比度增强和去噪,而不是将这两个任务分开处理。 为了训练 LLNet,作者提出了一种合成数据生成方法。由于收集大量自然弱光图像及其对应的照明良好的图像可能不切实际,因此采用了从互联网数据库中获取的图像,并对其进行综合处理以模拟弱光条件。具体来说,这些图像被非线性地变暗并添加高斯噪声,从而创建出适合训练的数据集。 损失函数的设计也是 LLNet 的一个重要组成部分。在网络中,每个 DA(去噪自动编码器)模块的损失函数包括了多个部分,旨在优化模型参数的同时确保隐藏层的稀疏性。这种稀疏性有助于模型更好地捕捉图像的本质特征。 除了 LLNet 之外,还提出了 S-LLNet 架构,它使用两个独立的 SSDA 模块分别处理亮度较低的图像和含有噪声的图像,然后将它们结合起来进行最终的图像增强。这种方法允许更精细地控制不同类型的输入信号,从而进一步提高增强效果。 实验结果表明,LLNet 在多种测试条件下均表现出色,包括对原始明亮图像、人为变暗图像以及带有不同程度噪声的人为变暗图像的处理。性能评估指标如 PSNR 和 SSIM 显示出 LLNet 相比其他方法具有更好的增强能力和鲁棒性。 此外,LLNet 的一个显著优点是其能够在没有参考图像帧的情况下执行盲对比度增强。这对于需要快速适应新环境的应用场景(例如战术侦察)至关重要。 ```python # 示例代码 - 假设我们有一个简单的自编码器结构作为LLNet的基础 import torch.nn as nn class SimpleAutoencoder(nn.Module): def __init__(self): super(SimpleAutoencoder, self).__init__() # 编码器层定义 self.encoder = nn.Sequential( nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1), nn.ReLU(True), nn.MaxPool2d(kernel_size=2, stride=2) ) # 解码器层定义 self.decoder = nn.Sequential( nn.ConvTranspose2d(64, 3, kernel_size=2, stride=2), nn.ReLU(True) ) def forward(self, x): x = self.encoder(x) x = self.decoder(x) return x ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值