自监督单目深度估计:通过语义引导解决目标问题 Self-Supervised Monocular Depth Estimation:Solving the Dynamic Object Problem

Self-Supervised Monocular Depth Estimation:Solving the Dynamic Object Problem

(自监督单目深度估计:通过语义引导解决目标问题)

重投影损失:指当前观测到的位置与3D点按照当前位姿估计出来的位置相比较得到的误差。

0 摘要

  提出一种新的语义引导的深度估计(SGDepth)方法来处理运动的动态类问题(DC),例如运动的汽车和行人。采用有监督的语义分割和自监督的深度估计进行互利跨域训练,提供防止移动对象污染的光度损失的语义遮蔽方案,以及对非移动对象的检测方法。

1介绍

  经典的基于模型的算法可以根据可以更具立体图像或图像序列预测深度,但是受到模型质量的限制。深度学习能够在激光雷达或者RGBD相机测量的监控下,从单个弹幕图像中预测深度,即有监督的深度估计。后续根据最小重投影损失引入了自监督的方法,并且通过最小化光度误差来优化深度,而不需要任何的标签。在这里插入图片描述
  上图在源域下进行有监督的语义分割,在目标域下进行自监督的深度估计。在进行深度估计时,将已经训练好的语义分割网络用来指导深度估计过程,语义分割相当于预处理。例如输入的单张图片,先进行语义分割,再将语义分割的结果用来指导深度估计。
  自监督单目深度估计目前有以下三个问题:

  1. 无法避免的遮挡问题,遮挡会诱发伪像。即遮挡问题会带来无法避免的重投影损失问题。
  2. 由于缺乏自我运动,帧间运动太小,导致不能推断出任何结构。
  3. 移动物体,违反了静态世界的假设。

   第一个问题遮挡问题是单目深度估计无法避免的问题,也是以后不断需要优化的问题。第二个问题,即SFM运动恢复结构方法(具体可以看SFMLearner论文),当帧间位移太小,导致得到的视差图几乎不变,最终无法恢复出深度图。第三个问题,就是运动物体的深度估计问题,当运动的物体的运动方向和速度与摄像机一致时,该物体的深度会被估计为无限远,即holes现象。
   Godard等人(Mono和Mono2的作者)通过最小化重投影损失和自动掩蔽技术来解决前两个问题,本文中也采用了这种方法。针对第三个问题该文加入语义分割来进行运动物体的识别。该论文的三个贡献:

  1. 将自监督深度估计与监督语义分割的互利跨域训练推广到具有特定任务网络头的更一般的设置。
  2. 提出一种解决动态问题的方式,即用一种新的语义来屏蔽光度损失。
  3. 这种方法对于运动物体可以有效的减少损失,对于非运动物体依然有所贡献。(二三一样,就是说语义监督的作用)

2 相关的工作

  介绍了深度估计,自监督深度估计,多任务学习,在深度估计中处理运动物体的常见方法。在这里插入图片描述
  该文章所提出的深度和语义分割联合预测框架概述。灰色块对应神经网络,蓝色块对应普通的自监督深度估计,橙色块对应普通语义分割,红色块对应两个任务之间的语义跨指导任务。方块内的数字代表对应的公式。

3 方法

最小重投影损失计算公式如下,其中α取0.85:(公式是Mono2中的,字母不一样公式一样,且Mono2中的公式好看的多~)

在这里插入图片描述
光滑损失计算公式如下:
在这里插入图片描述

### 关于Self-Supervised Monocular Depth Estimation论文的复现方法与代码 #### 复现方法概述 为了成功复现Self-Supervised Monocular Depth Estimation的相关工作,通常需要遵循以下几个方面的要求: 1. **数据准备** 自监督单目深度估计的核心在于利用未标注的数据进行训练。例如,《PackNet:3D Packing for Self-Supervised Monocular Depth Estimation》提到使用视频序列和相机运动信息作为输入[^2]。因此,可以选择公开可用的数据集如KITTI、Cityscapes或DDAD(如果适用),并确保数据预处理阶段能够提取连续帧及其对应的相机姿态。 2. **网络架构设计** 不同的论文采用了不同的网络结构来提升深度估计的效果。例如: - DIFFNet引入了高分辨率编码器,并通过注意力机制优化跳接连接[^1]。 - HR-Depth则专注于增强 shortcut 连接的质量以及采用 fSE 特征融合算子以更好地保留语义和空间信息[^4]。 在实际复现时,可以根据目标需求选择合适的网络结构或者尝试结合多种技术特点。 3. **损失函数定义** 损失函数的设计对于自监督学习至关重要。常见的做法包括但不限于光度一致性损失 (photometric consistency loss),几何正则化项等。特别值得注意的是,《Digging Into Self-Supervised Monocular Depth Estimation》一文中提到了几种改进措施——最小重投影损失、自适应遮罩损失及全分辨率多尺度采样方法,这些都可以显著改善最终结果[^3]。 4. **实验环境配置** 确保开发环境中安装有必要的依赖库版本匹配(比如PyTorch/TensorFlow)。同时也要注意硬件资源是否满足大规模神经网络训练的需求。 #### 示例代码片段 以下是基于PyTorch框架的一个简单示例,展示如何构建基础版的自监督单目深度估计流程的一部分: ```python import torch import torch.nn as nn from torchvision import models class Encoder(nn.Module): def __init__(self): super(Encoder, self).__init__() resnet = models.resnet18(pretrained=True) layers = list(resnet.children())[:8] self.encoder = nn.Sequential(*layers) def forward(self, x): return self.encoder(x) class Decoder(nn.Module): def __init__(self): super(Decoder, self).__init__() # Define decoder architecture here... def forward(self, x): pass # Implement decoding logic def photometric_loss(img1_warped, img2): """Compute photometric reconstruction error.""" l1_loss = torch.abs(img1_warped - img2).mean() ssim_loss = SSIM()(img1_warped, img2).mean() # Assume an implemented SSIM function exists. total_loss = 0.85 * ssim_loss + 0.15 * l1_loss return total_loss # Instantiate encoder & decoder... encoder = Encoder().cuda() decoder = Decoder().cuda() # Example usage during training loop: for batch_data in dataloader: imgs, poses = batch_data['imgs'], batch_data['poses'] features = encoder(imgs.cuda()) depths_pred = decoder(features) # Predicted inverse depth maps. warped_img = warp_image(depths_pred, poses) # Function to perform warping based on predicted depths and camera poses. loss_value = photometric_loss(warped_img, target_img) optimizer.zero_grad() loss_value.backward() optimizer.step() ``` 上述代码仅为示意性质,具体实现还需参照原论文中的详细算法描述调整参数设定与功能模块。 --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值