阅读笔记之FastDepth: Fast Monocular Depth Estimation on Embedded Systems

本文提出嵌入式实时单目深度估计框架,采用高效的encoder - decoder结构,精度与sota相当且推理时间短。回顾相关工作后,介绍了网络编译和剪枝方法以减少运算时间,在NYU dataset上实验并与之前方法对比,还探究不同encoder影响,最后提出后续研究方向。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这篇文章做了啥

对嵌入式,做了一个实时的单目深度估计框架。作者提出了一个efficient的encoder-decoder结构,精度可以和sota相媲美,并且推理时间非常短。作者主要集中在低延迟的decoder的设计上来

相关工作

作者回顾了一系列的单目深度估计的方法,说之前的方法主要集中在提升网络的精度上面,并没有太多考虑精度的信息。作者还回顾了mobilenet用1/30的参数达到了和vgg相类似的精度信息。SSD在检测方面也用到了更少的参数。
然而之前的网络都集中在优化encoder上面,实际上decoder在inference的时候占据了很大的时间,如下图


这篇文章主要就是针对decoder的推理时间进行优化,作者说他们所用到的depthwise separable convolution能够极大的减少他们的推理时间。
网络剪枝大部分都用于encoder网络结构,这篇文章作者用到了NetAdapt,来证明剪枝是可以同时优化encoder和decoder的。
方法
encoder & decoder & skip connection

作者提出的全卷积网络结构如下图


编码器常常被设计用来做图像的分类,vgg或者resnet已经具有很强的表达能力和高精度,但是这种encoder延迟比较大,以及比较复杂,在实时的嵌入式系统上跑根本不现实。
考虑到低延迟,所以encoder采用了mobilenet,在decoder上,作者说他们扥挖了过一共包含5层个上采样层,一个pointwise层。每个上采样层采用5*5的卷积来减少1/2输出的channel数目。最后用一个卷积层来输出最终的深度图。作者添加了一个skip connection来恢复图像的details,类似于unet或者deeper lab这种网络的short cut。feature map是相加的,而不是concate的,大概是为了减轻后续的计算压力。
网络编译

作者说我们提出的网络充分使用了depthwise分解,并且depth wise separable convolutional layers并没有在现有的深度学习框架上进行优化,所以这促使作者和需要对特定硬件来编译他们的代码,使得在硬件上减少运算的时间,作者在这里使用的是TVM complier。

网络剪枝

为了进一步减少网络的运行时间,作者用了一个sota的剪枝的方法来做后处理,叫做NetAdapt。从训练好的网络开始,NetAdapt可以从featuremap中自动地并且迭代地来鉴别和移除一些多余的channels,从而减轻计算的压力。在每一个迭代过程,NetAdapt产生一系列的从网络简化得到的network proposal。从这些proposal中,选出有着最好的accuracy-complexity trade-off的网络来作为下一次的简化的对象。直到目标的accuracy和complexity达到就停止迭代。网络的复杂度可以用MAC或者latency进行度量。

实验

作者 NYU dataset上进行了训练和测试。encoder在imagenet上进行预训练,误差用\(\delta_1\)进行衡量,指的是,relative error在25%以内的的pixel精度。测试的平台是jetson TX2。

和之前的方法相比较

如下图


类似于一个ablation study,设计的网络结构极大的减少了网络运行时间,后来加的一些其他操作也减少不少。
下面这个是和其他的方法进行对比的结果

可以看出,精度有些指标会损失一些,但是时间却非常快。
随后,作者又切换了TX2的不同模式,比如max-Q是低功耗模式,如下图

随后作者又可是花了一些误差估计的结果,如下图

作者同时也用更大的网络来做训练,结果如下

cpu上mobilenet运行很慢,作者说这个是因为depthwise layer在cpu上没有优化
ablation study for decoder design space

作者探究了一下不同的encoder的影响是怎么样的,比如pooling层之后接一个residual b## 这篇文章做了啥
对嵌入式,做了一个实时的单目深度估计框架。作者提出了一个efficient的encoder-decoder结构,精度可以和sota相媲美,并且推理时间非常短。作者主要集中在低延迟的decoder的设计上来

相关工作

作者回顾了一系列的单目深度估计的方法,说之前的方法主要集中在提升网络的精度上面,并没有太多考虑精度的信息。作者还回顾了mobilenet用1/30的参数达到了和vgg相类似的精度信息。SSD在检测方面也用到了更少的参数。
然而之前的网络都集中在优化encoder上面,实际上decoder在inference的时候占据了很大的时间,如下图


这篇文章主要就是针对decoder的推理时间进行优化,作者说他们所用到的depthwise separable convolution能够极大的减少他们的推理时间。
网络剪枝大部分都用于encoder网络结构,这篇文章作者用到了NetAdapt,来证明剪枝是可以同时优化encoder和decoder的。
方法
encoder & decoder & skip connection

作者提出的全卷积网络结构如下图


编码器常常被设计用来做图像的分类,vgg或者resnet已经具有很强的表达能力和高精度,但是这种encoder延迟比较大,以及比较复杂,在实时的嵌入式系统上跑根本不现实。
考虑到低延迟,所以encoder采用了mobilenet,在decoder上,作者说他们扥挖了过一共包含5层个上采样层,一个pointwise层。每个上采样层采用5*5的卷积来减少1/2输出的channel数目。最后用一个卷积层来输出最终的深度图。作者添加了一个skip connection来恢复图像的details,类似于unet或者deeper lab这种网络的short cut。feature map是相加的,而不是concate的,大概是为了减轻后续的计算压力。
网络编译

作者说我们提出的网络充分使用了depthwise分解,并且depth wise separable convolutional layers并没有在现有的深度学习框架上进行优化,所以这促使作者和需要对特定硬件来编译他们的代码,使得在硬件上减少运算的时间,作者在这里使用的是TVM complier。

网络剪枝

为了进一步减少网络的运行时间,作者用了一个sota的剪枝的方法来做后处理,叫做NetAdapt。从训练好的网络开始,NetAdapt可以从featuremap中自动地并且迭代地来鉴别和移除一些多余的channels,从而减轻计算的压力。在每一个迭代过程,NetAdapt产生一系列的从网络简化得到的network proposal。从这些proposal中,选出有着最好的accuracy-complexity trade-off的网络来作为下一次的简化的对象。直到目标的accuracy和complexity达到就停止迭代。网络的复杂度可以用MAC或者latency进行度量。

实验

作者 NYU dataset上进行了训练和测试。encoder在imagenet上进行预训练,误差用\(\delta_1\)进行衡量,指的是,relative error在25%以内的的pixel精度。测试的平台是jetson TX2。

和之前的方法相比较

如下图


类似于一个ablation study,设计的网络结构极大的减少了网络运行时间,后来加的一些其他操作也减少不少。
下面这个是和其他的方法进行对比的结果

可以看出,精度有些指标会损失一些,但是时间却非常快。
随后,作者又切换了TX2的不同模式,比如max-Q是低功耗模式,如下图

随后作者又可是花了一些误差估计的结果,如下图

作者同时也用更大的网络来做训练,结果如下

cpu上mobilenet运行很慢,作者说这个是因为depthwise layer在cpu上没有优化
ablation study for decoder design space

作者探究了一下不同的encoder的影响是怎么样的,比如pooling层之后接一个residual block
或者是22的pooling接一个55的convolution
或者是55的转置卷积,又或者是55的卷积,然后接缩放两倍这样,实验结果如下图

后续

是否可以对于双目深度估计来做一个嵌入式的应用?模拟两个镜头拍摄得到的图像,只是针对目前主流的3D-CNN进行压缩或者加速?

### 关于Self-Supervised Monocular Depth Estimation论文的复现方法与代码 #### 复现方法概述 为了成功复现Self-Supervised Monocular Depth Estimation的相关工作,通常需要遵循以下几个方面的要求: 1. **数据准备** 自监督单目深度估计的核心在于利用未标注的数据进行训练。例如,《PackNet:3D Packing for Self-Supervised Monocular Depth Estimation》提到使用视频序列和相机运动信息作为输入[^2]。因此,可以选择公开可用的数据集如KITTI、Cityscapes或DDAD(如果适用),并确保数据预处理阶段能够提取连续帧及其对应的相机姿态。 2. **网络架构设计** 不同的论文采用了不同的网络结构来提升深度估计的效果。例如: - DIFFNet引入了高分辨率编码器,并通过注意力机制优化跳接连接[^1]。 - HR-Depth则专注于增强 shortcut 连接的质量以及采用 fSE 特征融合算子以更好地保留语义和空间信息[^4]。 在实际复现时,可以根据目标需求选择合适的网络结构或者尝试结合多种技术特点。 3. **损失函数定义** 损失函数的设计对于自监督学习至关重要。常见的做法包括但不限于光度一致性损失 (photometric consistency loss),几何正则化项等。特别值得注意的是,《Digging Into Self-Supervised Monocular Depth Estimation》一文中提到了几种改进措施——最小重投影损失、自适应遮罩损失及全分辨率多尺度采样方法,这些都可以显著改善最终结果[^3]。 4. **实验环境配置** 确保开发环境中安装有必要的依赖库版本匹配(比如PyTorch/TensorFlow)。同时也要注意硬件资源是否满足大规模神经网络训练的需求。 #### 示例代码片段 以下是基于PyTorch框架的一个简单示例,展示如何构建基础版的自监督单目深度估计流程的一部分: ```python import torch import torch.nn as nn from torchvision import models class Encoder(nn.Module): def __init__(self): super(Encoder, self).__init__() resnet = models.resnet18(pretrained=True) layers = list(resnet.children())[:8] self.encoder = nn.Sequential(*layers) def forward(self, x): return self.encoder(x) class Decoder(nn.Module): def __init__(self): super(Decoder, self).__init__() # Define decoder architecture here... def forward(self, x): pass # Implement decoding logic def photometric_loss(img1_warped, img2): """Compute photometric reconstruction error.""" l1_loss = torch.abs(img1_warped - img2).mean() ssim_loss = SSIM()(img1_warped, img2).mean() # Assume an implemented SSIM function exists. total_loss = 0.85 * ssim_loss + 0.15 * l1_loss return total_loss # Instantiate encoder & decoder... encoder = Encoder().cuda() decoder = Decoder().cuda() # Example usage during training loop: for batch_data in dataloader: imgs, poses = batch_data['imgs'], batch_data['poses'] features = encoder(imgs.cuda()) depths_pred = decoder(features) # Predicted inverse depth maps. warped_img = warp_image(depths_pred, poses) # Function to perform warping based on predicted depths and camera poses. loss_value = photometric_loss(warped_img, target_img) optimizer.zero_grad() loss_value.backward() optimizer.step() ``` 上述代码仅为示意性质,具体实现还需参照原论文中的详细算法描述调整参数设定与功能模块。 --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值