【论文阅读】**Cross-Modality depth Estimation via Unsupervised Stereo RGB-to-infrared Translation**

本文提出了一种框架,通过无监督学习和立体约束,从RGB图像生成红外图像并估计RGB-IR立体对的深度。方法利用傅里叶域适应策略和多空间扭曲正则化,解决了KITTI数据集缺乏配对RGB-IR数据和保持立体一致性的问题,提升了深度估计的鲁棒性和性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【论文阅读】Cross-Modality depth Estimation via Unsupervised Stereo RGB-to-infrared Translation

基础信息

ICASSP 2023 - 2023 IEEE 声学、语音和信号处理国际会议 (ICASSP)

Cross-Modality depth Estimation via Unsupervised Stereo RGB-to-infrared Translation

论文链接:https://ieeexplore.ieee.org/abstract/document/10095982

数据集:

目标:

代码:

已有方法的问题

  1. 由于KITTI中缺乏成对的RGB-IR数据,很难将IR图像的内在特征准确地表达为正则化并保持场景语义一致性,以有效地训练翻译网络无监督的方式
  2. 在为双目深度估计方法生成立体红外图像时,我们必须保持左右视图之间的立体一致性。现有的单视图平移方法[18]、[19]通常无法在两个生成的视图上生成几何一致的纹理。

本文的创新点

  1. 框架由RGB到IR转换(RIT)网络组成,用于从相应的立体RGB图像合成立体IR图像,以及跨模态深度估计(CDE
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值