cvpr 深度估计_2019CVPR 深度估计相关论文简述

本文概述了2019年CVPR上关于深度估计的31篇论文,涵盖深度预测的准确性提升、多任务学习、深度补全、深度图辅助任务、新数据集、知识蒸馏等多个方面。文章提到了如利用相机内参的CAM-Convs、语义信息辅助的深度估计、光流和深度估计的联合学习等创新方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2019CVPR用depth做关键字共索引出31篇文章,根据任务和方法分为7分部分。分别为多任务,更准确,深度补全,深度图辅助任务,新的数据集,知识蒸馏,其他。

1. 更准确

1. Neural RGB->D Sensing:

主张:深度估计不仅预测深度值,应该同时预测深度的分布并且随着时间的推移对分布做积分。

数学性质太强

2.Recurrent MVSNet:

多视角立体估计中,将最后的concat用RNN替代以减少参数。

想法很直接

3.Bilateral Cyclic Constraint and Adaptive Regularization

训练中,用模型的表现来驱动正则项的权值,而不是之前根据时间来调整权值。

双边循环一致性:把左右一致性进一步升级,左目视差转为右目视差后再转回左目。

提出了一个双分支decoder结构做refine。

cycle 大法好

4.Geometry-Aware Symmetric Domain Adaptation

在网络中加入了GAN,将真实图像转为为合成图像(去掉一些无关紧要的细节)。对合成图像和真实图像做深度预测后平均。

网络结构是对称的。

GAN可以这么用!!不如在分割和检测中用用。

5.CAM-Convs:

提出一个新的卷积层,考虑了相机内参。用于不同的相机配准下,模型中用于跳层。

模型输出了置信度。

很好奇,在不同的相机配准下预测深度图,深度图之间的差异会不会很小。从实验结果看,相机配准确实会影响结果。

6.Learning monocular depth estimation infusing traditional stereo knowledge。

新颖的框架(三步):特征提取-》初始深度-》refine

损失函数用了无监督和有监督——标签用传统方法生成。

额......无话可说。可能是看了太多遍,就感觉没那么NB。如果在缺少标签的情况下,代理标签确实是一个很好地选择,总比没有标签的无监督要强

7.Learning the Depth of Moving People by watching Frozen People

对静止的人构建数据集。

构建一个网络去预测深度。

更我的研究方向联系不大,但是应用很有创新性

8.Towards scene understanding:Semantic-aware

利用语义信息辅助深度估计。左右语义一致性和语义指导平滑——同一语义的物体深度的变化应该是连续的。

9.Learning Non-volumetric Depth Fusion using Successive Reprojections

重投影,利用多视角信息refine中心视角的深度。可以多次迭代。

10.Single Image Depth Estimation

利用散焦现象设计了一个损失函数。散焦利用PSF层(在函数g中)

11.Monocular depth estimation using relative depth map

同时预测绝对深度和相对深度。相对深度的预测中用了很多传统机器学习算法,Lloyd,ALS。

相比于修改网络结构,这篇文章用了很多数学证明,使得相对深度的预测有理有据

2. 多任务

1.Unsupervised Event-based Learning of optical flow,depth,and egomotion

输入将时间维度作为二维图像的channel。egomotion 用来deblur。

网络结构图看的很迷

2. Veritatem Dies Apetrit

前一帧的输出结果作为后一帧的预测输入。

用了光流提供时间域上的信息。

3.RNN for supervised learning of monocular video visual odometry and depth

LSTM双向学习

用了光流设计损失

4.student becoming the master

将深度网络和分割网络的信息融合,构建了一个新的网络可以同时执行两个任务。

迁移学习?两个网络分别训练好,将encoder信息融合再decode

5.bridging stereo matching and optical flow

左右目估计视差,前后帧估计光流,构建损失函数。闭环。

6.pattern-affinitive propagation across depth,surface normal and semantic segmentation

PAP 交叉任务传播和特定任务传播。affinity layer学习任务间关系。

7.unos

深度光流和移动同时输出,在损失函数上做了很多改变。使用刚体变换和测距(odometry)构建损失函数

3.深度补全

这部分我们没有明白补全后的深度图是什么标准,或者说ground truth怎么来的

1.Dense Depth Posterior from single image and sparse range

数学符号太多不想看,就是估计了一个后验概率,也没看懂是怎么估计的。

2.Deep reinforcement learning of volume-guided

3d云点图补全,强化学习找到下一次补全的最优视角,积累上一次补全的结果。

3.depth coefficients for depth completion

提出深度检验表。深度检验表将深度离散化,网络预测对应的离散域的深度,最后重建。

4.DeepLiDAR:

表面法向量作为中间量,加入了attention map

4.深度图辅助任务

1.Depth-aware video frame interpolate

深度图和光流辅助中间帧图像的估计

这篇文章今年在CVPR好像挺NB

2.Depth-attention Feature for single-image rain removal

利用深度图去雨。构建了一个新的去雨数据集

去雨这个问题已经好多年了吧,还是收到一部分人的关注

3.pseudo-lidar from visual depth estimation:

作者发现了一个很重要结论:雷达和深度图在目标检测上的差距主要来自于表现形式的不同。

在目标检测时将depth转换成3D检测可以提高精度。

5.数据集

1.利用MVF和SFM产生新的数据集,利用语义信息增强。

2.sfm生成深度图,设计了一个QAnet评价生成结果。

6.蒸馏

refine and distill: exploiting cycle-inconsistency

1.右目转左目(teache)

2.左目转回右目。再右目转回左目(teacher,学习不一致性)

7.其他

1.connecting the dots:

结构光相机,非双目

2.FiFF

特征提取算法,重建任务比SIFT表现好

3.privacy protection in street-view

利用深度和多张图片对物体分割后填充,实现隐私保护。深度信息来自雷达

4.Depth from a polarisation + RGB stereo pair

使用了偏振相机

哪天不懒了把图片和文章全名补上。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值