论文笔记:HR-Depth:High Resolution Self-Supervised Monocular Depth Estimation

该研究针对高分辨率图像深度估计精度不足的问题,分析了大梯度区域的深度预测误差。文章提出重新设计的跳接结构和特征融合压缩激励模块(fSE),以改善边缘预测和网络效率。此外,还引入轻量化网络HR-Depth,实现更高效且精确的深度估计。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

中文标题: HR-Depth:高分辨率自监督单目深度估计

(本文只记录与Monodepth2不同的部分)

解决的问题

  • 虽然人们尝试使用高分辨率图像进行深度估计,但预测的精度并没有显著提高。在本研究中,我们发现其核心原因是在大梯度区域的深度估计不准确,使得双线性插值损失随着分辨率的增加而逐渐消失。

创新点

  • 文章提供了一个高分辨率单眼深度估计的深度分析,并证明了预测更准确的边界可以提高性能。
  • 文章重新设计了跳接,以获得高分辨率的语义特征图,这可以帮助网络预测更清晰的边缘。
  • 为了提高特征融合的效率和效果,我们提出了特征融合压缩激励模块

高分辨率性能分析

在这里插入图片描述

  • 在Monodepth2上增大图像分辨率,性能指标并未提升。Mono2结构并不能利用输入图像的高分辨率的信息。
    在这里插入图片描述
  • 在梯度较大的区域中,局部预测误差会在上采样过程中严重影响全局精度
  • 在低分辨率区域,上采样对精度影响较小。

重新设计的跳接结构

思路

通过充分利用空间以及语义信息来预测更好的边界

解决方案

HR 解码器在这里插入图片描述
  • X i e X^e_i Xie表示特征提取节点; X i , j X_{i,j} Xi,j是特征融合模块,其中只含3x3卷积; X i d X^d_i Xid表示特征融合模块,包含fSE模块。深度预测由DispConv连接。
    在这里插入图片描述
特征融合SE模块
问题
  • 密集的跳接使解码器节点显著增加了输入特征图数量,降低网络的效率。
解决方案
  • 提出 feature fusion Squeeze-Excitation(fSE) 模块
  • 通过全局平均池化表示通道信息,并通过两个全连接层紧接Sigmoid激活函数,获取特征重要性,并重加权特征(类似通道注意力机制),最后通过1x1的特征获得高质量特征。

轻量化 HR-Depth

  • 蒸馏出一个小网络,只有Mono2 20%的参数量,却比Mono2更加精确。

消融实验

在这里插入图片描述

  • 分析:类似于HRNet的dense SC模块可以提高性能,fSE模块在性能和效率间进行取舍。

全文总结

  • 在MonoDepth2的基础上对DepthDecoder进行改进,使用HR结构增强了特征在空间和语义上的复用。已经存在将DepthEncoder换为标准预训练HRNet的论文[1]。

代码阅读

在这里插入图片描述

  • 在阅读代码时我发现,如果我的理解没有问题的话,图中画叉的节点时不存在的,并且按照规律特征的的流向为红色虚线。(如果我的理解有问题,请大家指正。)

参考文献

[1] Zhou H, Greenwood D, Taylor S. Self-supervised monocular depth estimation with internal feature fusion[J]. arXiv preprint arXiv:2110.09482, 2021.
[2] Lyu X, Liu L, Wang M, et al. Hr-depth: High resolution self-supervised monocular depth estimation[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2021, 35(3): 2294-2301.

### 关于Self-Supervised Monocular Depth Estimation论文的复现方法与代码 #### 复现方法概述 为了成功复现Self-Supervised Monocular Depth Estimation的相关工作,通常需要遵循以下几个方面的要求: 1. **数据准备** 自监督单目深度估计的核心在于利用未标注的数据进行训练。例如,《PackNet:3D Packing for Self-Supervised Monocular Depth Estimation》提到使用视频序列和相机运动信息作为输入[^2]。因此,可以选择公开可用的数据集如KITTI、Cityscapes或DDAD(如果适用),并确保数据预处理阶段能够提取连续帧及其对应的相机姿态。 2. **网络架构设计** 不同的论文采用了不同的网络结构来提升深度估计的效果。例如: - DIFFNet引入了高分辨率编码器,并通过注意力机制优化跳接连接[^1]。 - HR-Depth则专注于增强 shortcut 连接的质量以及采用 fSE 特征融合算子以更好地保留语义和空间信息[^4]。 在实际复现时,可以根据目标需求选择合适的网络结构或者尝试结合多种技术特点。 3. **损失函数定义** 损失函数的设计对于自监督学习至关重要。常见的做法包括但不限于光度一致性损失 (photometric consistency loss),几何正则化项等。特别值得注意的是,《Digging Into Self-Supervised Monocular Depth Estimation》一文中提到了几种改进措施——最小重投影损失、自适应遮罩损失及全分辨率多尺度采样方法,这些都可以显著改善最终结果[^3]。 4. **实验环境配置** 确保开发环境中安装有必要的依赖库版本匹配(比如PyTorch/TensorFlow)。同时也要注意硬件资源是否满足大规模神经网络训练的需求。 #### 示例代码片段 以下是基于PyTorch框架的一个简单示例,展示如何构建基础版的自监督单目深度估计流程的一部分: ```python import torch import torch.nn as nn from torchvision import models class Encoder(nn.Module): def __init__(self): super(Encoder, self).__init__() resnet = models.resnet18(pretrained=True) layers = list(resnet.children())[:8] self.encoder = nn.Sequential(*layers) def forward(self, x): return self.encoder(x) class Decoder(nn.Module): def __init__(self): super(Decoder, self).__init__() # Define decoder architecture here... def forward(self, x): pass # Implement decoding logic def photometric_loss(img1_warped, img2): """Compute photometric reconstruction error.""" l1_loss = torch.abs(img1_warped - img2).mean() ssim_loss = SSIM()(img1_warped, img2).mean() # Assume an implemented SSIM function exists. total_loss = 0.85 * ssim_loss + 0.15 * l1_loss return total_loss # Instantiate encoder & decoder... encoder = Encoder().cuda() decoder = Decoder().cuda() # Example usage during training loop: for batch_data in dataloader: imgs, poses = batch_data['imgs'], batch_data['poses'] features = encoder(imgs.cuda()) depths_pred = decoder(features) # Predicted inverse depth maps. warped_img = warp_image(depths_pred, poses) # Function to perform warping based on predicted depths and camera poses. loss_value = photometric_loss(warped_img, target_img) optimizer.zero_grad() loss_value.backward() optimizer.step() ``` 上述代码仅为示意性质,具体实现还需参照原论文中的详细算法描述调整参数设定与功能模块。 --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BlueagleAI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值