【论文笔记】ICRA2019 视觉里程计的损失函数:Beyond Photometric Loss for Self-Supervised Ego-Motion Estimation

本文针对自我监督下的自定位与地图构建问题,提出了结合几何一致性损失的改进方法,以提高里程计估计的准确性。

Beyond Photometric Loss for Self-Supervised Ego-Motion Estimation

港科大,腾讯优图,香港珠穆朗玛峰创新科技(Altizure)
本文对现有的视觉历程计方法使用的损失函数进行了总结,并提出了一种基于几何一致性的损失函数。

现有里程计方法

主要分为两类:

  1. 间接法:
    SLAM系统常用,首先计算出一些鲁棒的特征点边缘集合或者是光流信息,然后用滑窗或者全局BA最小化几何误差。
  2. 直接法:
    VSLAM常用,直接优化对应像素的光度误差。光度误差的前提是光度一致假设,这种做法因为受到动态目标、相机自动曝光自动白平衡以及反射表面的影响,鲁棒性较差。多见于自监督学习方法中。

本文方法

先介绍下现有的损失函数:
1、光度误差(图像重建误差、合成图像误差)
图像I2中的像素点P2在I1中的投影为:
p1∼K1[R12^∣t12]D2^(p2)K2−1p2 p_{1} \sim K_{1}\left[\hat{R_{12}} \mid t_{12}\right] \widehat{D_{2}}\left(p_{2}\right) K_{2}^{-1} p_{2} p1K1[R12^t12]D2 (p2)K21p2
其中K为相机内参,D为所预测的深度图,R t为预测的两帧之间的相对位姿。

讲投影的I1与I1相减得到合成图像损失:
Limg=(1−α)∥I2−I21~∥1+α1−SSIM(I2−I21~)2 \mathcal{L}_{i m g}=(1-\alpha)\left\|\mathcal{I}_{2}-\widetilde{\mathcal{I}_{2}^{1}}\right\|_{1}+\alpha \frac{1-S S I M\left(\mathcal{I}_{2}-\widetilde{\mathcal{I}_{2}^{1}}\right)}{2} Limg=(1α)I2I21 1+α21SSIM(I2I21 )
第一项为光度误差,第二项为结构相似性度量(从统计学角度衡量两张图像的相似性)
这个损失公式应该伴随一个平滑项来解决运动估计中的梯度局部性问题,并在低纹理区域消除所获得深度的不连续性
因此有一项平滑损失:
图像的平滑区域对深度图损失值的影响更大Lsmooth=∑p∣∇D(p)∣T⋅e−∣∇I(p)∣ 图像的平滑区域对深度图损失值的影响更大 \mathcal{L}_{\text {smooth}}=\sum_{p}|\nabla D(p)|^{T} \cdot e^{-|\nabla I(p)|} L</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值