Beyond Photometric Loss for Self-Supervised Ego-Motion Estimation
港科大,腾讯优图,香港珠穆朗玛峰创新科技(Altizure)
本文对现有的视觉历程计方法使用的损失函数进行了总结,并提出了一种基于几何一致性的损失函数。
现有里程计方法
主要分为两类:
- 间接法:
SLAM系统常用,首先计算出一些鲁棒的特征点边缘集合或者是光流信息,然后用滑窗或者全局BA最小化几何误差。 - 直接法:
VSLAM常用,直接优化对应像素的光度误差。光度误差的前提是光度一致假设,这种做法因为受到动态目标、相机自动曝光自动白平衡以及反射表面的影响,鲁棒性较差。多见于自监督学习方法中。
本文方法
先介绍下现有的损失函数:
1、光度误差(图像重建误差、合成图像误差)
图像I2中的像素点P2在I1中的投影为:
p1∼K1[R12^∣t12]D2^(p2)K2−1p2 p_{1} \sim K_{1}\left[\hat{R_{12}} \mid t_{12}\right] \widehat{D_{2}}\left(p_{2}\right) K_{2}^{-1} p_{2} p1∼K1[R12^∣t12]D2
(p2)K2−1p2
其中K为相机内参,D为所预测的深度图,R t为预测的两帧之间的相对位姿。
讲投影的I1与I1相减得到合成图像损失:
Limg=(1−α)∥I2−I21~∥1+α1−SSIM(I2−I21~)2 \mathcal{L}_{i m g}=(1-\alpha)\left\|\mathcal{I}_{2}-\widetilde{\mathcal{I}_{2}^{1}}\right\|_{1}+\alpha \frac{1-S S I M\left(\mathcal{I}_{2}-\widetilde{\mathcal{I}_{2}^{1}}\right)}{2} Limg=(1−α)∥∥∥I2−I21
∥∥∥1+α21−SSIM(I2−I21
)
第一项为光度误差,第二项为结构相似性度量(从统计学角度衡量两张图像的相似性)
这个损失公式应该伴随一个平滑项来解决运动估计中的梯度局部性问题,并在低纹理区域消除所获得深度的不连续性
因此有一项平滑损失:
图像的平滑区域对深度图损失值的影响更大Lsmooth=∑p∣∇D(p)∣T⋅e−∣∇I(p)∣ 图像的平滑区域对深度图损失值的影响更大 \mathcal{L}_{\text {smooth}}=\sum_{p}|\nabla D(p)|^{T} \cdot e^{-|\nabla I(p)|} 图像的平滑区域对深度图损失值的影响更大L</

本文针对自我监督下的自定位与地图构建问题,提出了结合几何一致性损失的改进方法,以提高里程计估计的准确性。
最低0.47元/天 解锁文章
2345

被折叠的 条评论
为什么被折叠?



