【低光去噪】理解ELD(Physics-based Noise Modeling for Extreme Low-light Photography)

1. Motivation

对于极暗光环境下的图像去噪,存在以下亟需解决的问题:

  • 噪声源没有被充分考虑到,导致现有的去噪方法在暗光环境下的性能大幅下降
  • learning-based去噪方法依赖大量的配对数据,在暗光环境下获取高质量的配对数据尤为困难,因此无法推广至新的相机设备上

2. Contribution

  • 建立了一个全面的噪声模型,可以准确地描述暗光环境下的真实噪声结构
  • 提出了一种噪声参数标定方法,适用于任何给定的相机设备
  • 收集了一个极暗光去噪数据集,用于验证所提噪声模型的有效性和通用性。

3. Methods

3.1 噪声模型建立

建立一个全面且准确的噪声模型,需要解决两个问题:

  • 噪声模型由哪些噪声组成
  • 噪声模型中的每种噪声成分服从何种统计分布

论文中,作者将原始图像形成的过程划分为3个阶段:从光子到电子、从电子到电压、从电压到数字信号,并逐一分析每个阶段引入的噪声源。

3.1.1 光子到电子:光子散射噪声

由于光的量子性质,探测器上接收到的光子数量存在不确定性,在连续的时间上,同一个像元接收到的光子数量存在随机波动,表现在图像上就是一种随机噪声,被称为光子散射噪声。现有研究已达成共识,光子散射噪声在时间上满足泊松分布的特征。
在这里插入图片描述
关于光子散射噪声,[2][3]解释的比较清晰透彻。

在光子到电子阶段还引入了其他一些噪声源,如光响应不均匀性和暗电流噪声,由于CMOS传感器设计和制造技术的进步,例如暗电流抑制,导致单反相机具有较低的暗电流和更好的光响应均匀性。因此假设恒定的光响应,并将暗电流噪声放到读出噪声部分。

关于暗电流噪声:在无光时产生的电流输出,因此是一种与信号无关的噪声。

3.1.2 电子到电压:读出噪声、条带噪声

当电子在探测器上的每个位置被收集到后,它们通常被整合、放大,并在曝光时间结束时读出为可测量的电荷或电压。在电子到电压阶段出现的噪声取决于所使用的电路设计和处理技术,因此被称为像素电路噪声,包括热噪声、复位噪声、源跟随器噪声和条带噪声。

为了简化分析,作者在噪声模型中考虑了热噪声 N t N_t Nt、源跟随器噪声 N s N_s Ns、暗电流噪声 N d N_d Nd和条带噪声 N B N_B NB,将前三项合并为读出噪声,条带噪声单独考虑(因为条带噪声的分布明确)。
在这里插入图片描述

读出噪声

读出噪声通常被假设服从高斯分布,但是对噪声数据的分析表明其分布形状具有长尾性质,如下图所示。
在这里插入图片描述
基于无光环境下采集的黑帧生成概率图,可以看出数据的主体可能服从高斯分布(左列),同时也揭示了潜在分布的长尾性质;从 R 2 R^2 R2来看,Tukey-lambda分布的数值远高于高斯分布,说明与数据拟合程度更高。因此,采用Tukey-lambda分布模拟读出噪声:
在这里插入图片描述
这里假设读出噪声为零均值噪声,因此位置参数设置为0.

颜色偏差噪声

虽然零平均噪声假设在大多数情况下普遍适用,但作者发现在极低光条件下会失效,因为不可忽略的直流电噪声分量。并且,评估显示直流噪声分量在不同颜色通道中也是不同的(Fig.4),作者认为这种颜色不均匀的直流噪声分量是导致在极低照度下经常观察到的色偏现象的罪魁祸首。
在这里插入图片描述
Fig.4如何得到的:基于一系列黑帧,计算每个黑帧每个颜色通道的像素均值,将均值减去记录的黑电平,统计所有黑帧的计算结果,绘制密度直方图。

为了使噪声模型简单而紧凑,将色偏噪声合并到读出噪声中(其实就是改变了读出噪声在颜色通道上的均值,由假设的0变化为 μ c \mu_c μc

原始图像领域,可学习性增强的方法主要集中在如何有效利用配对的真实数据与声建模来提升模型的性能。这一领域的研究已经取得了一些重要的进展,特别是在ACM MM 2022会议上发表的研究成果中得到了体现。 ### 可学习性增强的关键技术 1. **配对真实数据的应用** 在图像任务中,获取高质量的配对真实数据是提高模型泛化能力的关键。通过使用成对的真实数据(即包含声的图像和对应的干净图像),可以更准确地训练模型以识别和声[^3]。这种方法不仅能够帮助模型更好地理解声模式,还能确保在处理实际场景中的图像时具有更高的鲁棒性和准确性。 2. **声建模的重要性** 声建模是另一个关键因素,它涉及到对图像中声特性的深入分析。通过对声分布进行建模,可以在训练过程中引入更具针对性的损失函数或正则化项,从而进一步提升模型的效果。例如,在某些研究中,采用了基于物理的声模型来指导网络的设计和优化过程[^1]。 3. **结合配对数据与声模型** 将配对的真实数据与声建模相结合,不仅可以提供更多的先验信息给模型,还可以增强其对复杂声环境下的适应能力。这种结合方式通常需要设计专门的网络架构或者训练策略,以便充分利用这两种资源的优势。例如,有研究提出了一种称为PMN(Physical Model Network)的方法,该方法通过将物理驱动的声模型集成到深度学习框架中,实现了对条件下图像声的有效抑制[^4]。 ### 实现细节与实验结果 - **网络架构设计** 为了有效地融合配对数据与声模型,研究人员开发了多种创新性的网络结构。这些结构往往包括用于提取多尺度特征的模块、注意力机制以及专门针对特定类型声设计的损失函数等组件。通过这种方式,模型能够在保持高分辨率的同时实现良好的降效果。 - **实验验证** 大量实验证明了上述方法的有效性。在多个基准测试集上,采用配对真实数据与声建模相结合的技术所构建的模型均表现出优于传统方法的结果。特别是在视觉质量和定量指标方面,如PSNR(峰值信比)和SSIM(结构相似度指数),都有显著提升[^2]。 ### 示例代码 以下是一个简单的示例代码,展示了如何构建一个基本的卷积神经网络来进行图像: ```python import torch import torch.nn as nn class DenoisingNet(nn.Module): def __init__(self): super(DenoisingNet, self).__init__() # 定义编码器部分 self.encoder = nn.Sequential( nn.Conv2d(3, 64, kernel_size=3, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) # 定义解码器部分 self.decoder = nn.Sequential( nn.ConvTranspose2d(64, 3, kernel_size=2, stride=2), nn.Sigmoid() ) def forward(self, x): encoded = self.encoder(x) decoded = self.decoder(encoded) return decoded # 初始化模型并定义损失函数和优化器 model = DenoisingNet() criterion = nn.MSELoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 假设我们有输入数据x_noisy和目标数据y_clean # 进行前向传播 output = model(x_noisy) loss = criterion(output, y_clean) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() ``` ### 总结 综上所述,通过合理利用配对的真实数据与声建模,可以显著提高原始图像的效果。未来的研究可能会更加注重于如何更高效地整合这两种资源,并探索新的网络架构以应对更为复杂的声情况。
评论 4
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值