Joint Transmission Map Estimation and Dehazing using Deep Networks

该博客介绍了一种使用深度网络进行联合传输图估计和去雾的方法。网络包含传输图估计、雾霾特征提取和引导图像去雾三个子网络,采用CGAN和U-net结构,利用均方误差损失和对抗损失进行训练。在NYU深度数据集上进行训练,并通过定性和定量比较验证了模型的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

模型

整个网络包括三个子网络,如图。
这里写图片描述

  • transmission map estimation
    传播图估计网络是一个CGAN网络,包含两个子网络:生成网络G和对抗网络D
    生成网络:有类似U-net结构的跳跃级联结构
    C(15)-CBP(30)-CBP(60)-CBP(120)-CBP(120)-CBP(120)-CBP(120)-CBP(120)-TCBP(120)-TCBP(120)-TCBP(120)-TCBP(120)-TCBP(60)-TCBP(30)-TCBP(15)-TC(1)-tanh
    对抗网络:
    CB(48)-CBP(96)-CBP(192)-CBP(384)-CBP(384)-C(1)-sigmoid
    损失函数:均方误差损失+对抗损失

  • haze feature extraction
    一个可行的方案是:让网络直接学习传播图和去雾图之间的非线性映射关系,但是这里有一个问题,就是在论文Image-to-image with conditional adversarial networks中所说的,当网络在学习类标签图像和RGB彩色图像之间的映射时,很难保留图像原有的彩色信息,因此,即使网络学习到的映射关系能够产生视觉上理想的结果,也不可能精确地预测出去雾后图像。
    为了确保去雾后的图像和原图像保持色彩恒常,作者这里借鉴了论文Deep Joint Image Filtering中的做法,用一个guidance image联合估计出的传播图一起作为第三个去雾网络的输入。这里的guidance image就是子网络haze feature extraction提取出的高维特征。
    网络结构和guided image dehazing一样。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值