【论文阅读】Underwater Image Enhancement: Using Wavelength Compensation and Image Dehazing(WCID)

本文介绍了一种结合波长补偿和图像去雾的水下图像增强算法(WCID)。该方法首先估计物体与相机间的距离,通过去雾算法消除色散导致的雾化效果。随后,通过背景光中各波长的剩余能量比估计场景深度,并根据波长的衰减进行补偿,以恢复色偏。此外,算法还考虑了人造光源的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者:Underwater Image Enhancement: Using Wavelength Compensation and Image Dehazing (WCID)
作者:John Y. Chiang
年份:2011年
期刊: ACIVS

摘要

本文提出了一种将水下图像与波长补偿(WCID)相结合的还原水下图像的算法。一旦事先使用暗通道估计了物体与相机之间的距离,就可以通过去雾算法消除色散带来的雾效应。接下来,从图像的背景光中的每个波长的剩余能量比来估计摄影场景深度。根据每个波长的衰减量,进行反向补偿以恢复色偏的失真。

1 介绍

物体反射的光向相机行进时,一部分光会遇到悬浮粒子,从而吸收并散射光。在没有黑体发射的环境中,散射通常会扩展为多重散射,从而将光束分散为均匀的背景光。
在这里插入图片描述

通过介质时,光会衰减; 剩余能量比(Rer):每单位距离的剩余能量与初始能量之比。 光束通过长度为d(x)的介质前后的能量分别为EI(λ,0)和EO(λ,d(x)); tλ(x)表示光束通过介质后的剩余能量比。 由于tλ(x)取决于波长λ和d(x),x与相机之间的距离tλ(x)会引起色散和色偏。
在这里插入图片描述

各种环境下的Rer均可通过一般海洋水为标准进行调整。假设来自空气的入射光束A经过衰减和多次散射后在深度D处形成背景光B;背景光与图像的最亮部分相对应。入射光束A和背景光B之间的关系可以用能量衰减模型表示:

在这里插入图片描述
EA(λ,0)和EB(λ,D):入射光和波长为λ的背景光的能量
在这里插入图片描述
解决色散不能解决色偏(增强对比度并锐化图像):
应用偏振片的特性来增强图像对比度和可见度,使用图像去雾消除雾化效果并增强图像对比度,并将点扩散函数(PSF)和调制传递函数相结合(MTF)结合小波分解来增强图像中的高频区域并增加可见度
解决色偏不能解决色散(改善了物体的颜色失真,不能修复图像模糊):
利用透过水的光的特性,利用各种波长之间的衰减差异来提供能量补偿,并在水下图像上使用直方图均衡化来平衡颜色的亮度分布

2 水下图像模型

在这里插入图片描述
当到达水下深度D照亮水下场景时,水面上方的自然光会衰减。在场景中的一个点x,反射光传播到相机的距离为d(x),以形成图像。色散是光吸收和悬浮颗粒在到达相机的过程中多次散射的结果;偏色是由于不同波长的光的衰减不一致造成的,并且在深度D和距离d(x)中都发生。在从图像的顶部(D)到底部(D R)的深度范围R内,衰减程度在图像的每个区域中变化,从而需要估计每个补偿点的水下深度。通常,为了克服水下摄影环境中的不足照明,使用诸如L的人造光源来辅助摄影。在补偿深度范围内的衰减能量损失时,必须考虑由L贡献的亮度,以避免过度补偿。 WCID算法遵循水下图像模型进行逆向补偿,先消除距离d(x)的色散和色偏,然后恢复深度D的色偏。在进行适当的补偿之前,考虑图像范围R内衰减的能量量和人工光源L的亮度。

2.1相机和物体之间的距离:d(x)

图像中物体与相机之间的距离的传统估计需要两幅图像用于视差。在有雾环境中,雾度随距离增加而增加,使用DCP,可以推导d(x)。室外无雾图像的暗通道Jdark:
在这里插入图片描述
在这里插入图片描述
Bλ是均匀的背景光,且局部块Ω(x)中的剩余能量比tλ(y)本质上是常数,则:
在这里插入图片描述
重新排列上述方程式,并在所有三个颜色通道之间再执行一次min操作:

在这里插入图片描述
在这里插入图片描述
t(x)随d(x)变化。暗通道先验的计算是基于块的,从而有较不准确的深度图。利用图像抠像对深度图进行重划分,可以改善拼接的失真度,从而更好地捕捉物体轮廓。
图像抠图需要输入初步分割的深度图和原始图像。利用图像中局部区域wx的协方差与平均颜色值之间的关系对对象进行检测,然后利用对象之间的关系对初步分割的深度图进行校正。深度图为tcoarse,改进的深度图为trefine,则:
在这里插入图片描述
在这里插入图片描述
校正原始图像以获得更准确的d(x)后,水下图像Jλ(x)为:
在这里插入图片描述
在补偿由物体和照相机之间的距离引起的雾度和色偏之后,需要进一步估计物体与水面D之间的距离,以校准通过水深造成的色偏。

2.2摄影场景的水下深度D

假设来自空气的光束A中每个波长的能量分别为EA(R),EA(G)和EA(B)。到水深D,衰减后每个波长的能量变为背景光B:EB(R),EB(G)和EB(B)。为了估计水下深度D,首先检测背景光B。利用DCP估计与背景光B相对应的图像位置。深度D是衰减至深度K后背景光能量EB(R),EB(G)和EB(B)与来自空气EA(R),EA(G)和EA(B)的入射光能之间具有最小误差的深度:
在这里插入图片描述
确定D,就可以使用每个波长的衰减量来补偿能量差并从深度D恢复色偏失真:
在这里插入图片描述
使用深度D进行整个图像的能量补偿会导致某些色偏残留在图像底部。因此,为了实现不同深度下的能量补偿,需要对图像中每个点的深度进行估计。

2.3图像深度范围R

在深度R范围内进行深度估计时,首先要对前景和背景进行分离,防止图像中物体的颜色干扰估计。图像的背景是自然光,它直接传播到相机而不会反射物体。因此使用背景进行估算可以更准确地计算水下深度。
在这里插入图片描述

背景光B和点dbottom分别位于深度范围的顶部和底部。图像中点x的水下深度在D和D+R之间,可以通过背景光B和点dbottom(由13得到)之间的线性插值获得。
实际场景:
在这里插入图片描述

若给定点x的水下深度δ(xj),就将能量衰减模型用于图像Iλ(x)中前景和背景的能量补偿:
在这里插入图片描述

2.4人造光源L

在没有人工照明的水下图像中,背景直接透射自然光而不会反射物体,是图像的较亮部分。图像前景中的平均亮度高于背景中的平均亮度,表明存在人造光源。 Lf和Lb之间的差异是人造光源的亮度:
在这里插入图片描述

物体离得越近,受人造光源的影响就越大,(17)可以重写为:
在这里插入图片描述
在这里插入图片描述

### Shallow-UWnet Compressed Models for Underwater Image Enhancement Details and Implementation #### Model Architecture Overview Shallow-UWnet is a lightweight neural network designed specifically to address the challenges associated with water under image enhancement while maintaining high performance efficiency. The model achieves this through significant parameter reduction, requiring only one-eighteenth of trainable parameters compared to traditional deep learning models[^2]. This design choice not only reduces computational overhead but also enhances testing speed by up to ten times. #### Key Features The architecture of Shallow-UWnet incorporates several key features that contribute to its effectiveness: - **Parameter Efficiency**: By reducing the number of layers and optimizing each layer's structure, Shallow-UWnet minimizes the total amount of required training parameters. - **Enhanced Speed**: Optimized convolution operations allow faster inference without compromising on accuracy or quality of output images. - **Generalizability Across Datasets**: Despite being shallow, the model demonstrates strong generalization capabilities across different datasets containing various types of degraded underwater imagery. #### Implementation Example Below is an illustrative Python code snippet demonstrating how such a model might be implemented using TensorFlow/Keras framework: ```python import tensorflow as tf from tensorflow.keras import layers, models def create_shallow_uwnet(input_shape=(None, None, 3)): inputs = layers.Input(shape=input_shape) # Initial Convolution Layer conv1 = layers.Conv2D(64, (7, 7), padding='same', activation='relu')(inputs) # Depthwise Separable Convolutions for Efficient Processing depth_sep_conv = layers.DepthwiseConv2D((3, 3), padding='same', use_bias=False)(conv1) pointwise_conv = layers.Conv2D(64, (1, 1), padding='same', activation='relu')(depth_sep_conv) # Output Layer outputs = layers.Conv2D(3, (1, 1), activation='sigmoid')(pointwise_conv) return models.Model(inputs=inputs, outputs=outputs) model = create_shallow_uwnet() model.compile(optimizer='adam', loss='mse') ``` This simplified version showcases basic components like initial large kernel size convolution followed by efficient separable convolutions which help reduce overall complexity yet retain essential spatial information necessary for effective denoising and color correction tasks specific to underwater environments.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值