参考代码:depth_and_motion_learning
1. 概述
导读:这篇文章是在(Depth from Videos in the Wild)的基础上进行改进得到的,在之前的文章中运动区域/物体通过mask标注或是bounding box标注的形式确定,但是这样或多或少会存在对外依赖的问题。对此,文章从 刚性物体运动 在相机前运动的特性进行分析得出如下两个特性:
1)其在整幅图像中的占比是较少的,毕竟一般情况下不会运动的背景占据了较大的比例;
2)刚性运动的物体其内部运动特性是分段的常量值,也就是对应的梯度变化很小;
正是基于上述两点观察,文章在之前文章的基础上对运动物体区域构建了一个约束,从而减少了运动物体会深度估计带来的影响。
文章的方式是通过隐式约束的形式对刚性物体运动区域进行约束,从而避免了显示地对运动区域标注,因而文章的方法可以在输入2帧图像的情况下实现深度预测和物体运动感知,如下图所示:
2. 方法设计
2.1 网络结构
文章的网络结构如下图所示:
整体上这里网络结构与之前文章(Depth from Videos in the Wild)的网络结构类似,只是在一些细节上有所区别。这里深度估计网络的编解码结构是一致的,主要的不同点在相机位姿和内参估计网络上,在原本两帧图像输入基础上添加了深度估计结果作为输入。
2.2 损失函数
深度图平滑损失:
这部分损失是为了给深度估计结果带来平滑作用,减少噪声的产生,其损失函数描述为:
L r e g , d e p = α d e p ∬ ( ∣ ∂ u d ( u , v ) e − ∂ u I ( u , v ) + ∂ v d ( u , v ) e − ∂ v I ( u , v ) ∣ d u d v L_{reg,dep}=\alpha_{dep}\iint(|\partial_ud(u,v)e^{-\partial_uI(u,v)}+\partial_vd(u,v)e^{-\partial_vI(u,v)}|d_ud_v Lreg,dep=αdep∬(∣∂ud(u,v)e−∂uI(u,v)+∂vd(u,v)e−∂vI(u,v)∣dudv
循环一致性损失:
首先是变换矩阵的循环一致性约束,其描述为:
L c y c = α c y c ∣ ∣ R R i n v − 1 ∣ ∣ 2 ∣ ∣ R − 1 ∣ ∣ 2 + ∣ ∣ R i n v − 1 ∣ ∣ 2 + β c y c ∬ ∣ ∣ R i n v T ( u , v ) + T i n v ( u w a r p , v w a r p ) ∣ ∣ 2 ∣ ∣ T ( u , v ) ∣ ∣ 2 + ∣ ∣ T i n v ( u w a r p