【论文笔记 】视觉重定位 GN-Net: The Gauss-Newton Loss for Multi-Weather Relocalization 2019

本文介绍了一种基于特征图的视觉定位方法,通过U-Net网络提取图像特征,优化特征图以增强定位精度和鲁棒性。网络设计考虑了跨季节、跨光照条件的图像相似性,以及高斯牛顿算法的高效匹配能力。

作者:Lukas von Stumberg, Patrick Wenzel, Qadeer Khan, Daniel Cremers

机构: 慕尼黑工业大学, Artisense

链接: https://vision.in.tum.de/gn-net

本文将定位问题分解为两个步骤:

  1. 在构建好的地图中寻找与当前图像最接近的图像
  2. 追踪其相对位姿

本文解决的问题是第二个步骤,即relocalization tracking 问题。

作者提出了一个图像特征提取网络,该网络提取的特征图可以替代直接SLAM中的图像用于定位、回环检测等,相比直接使用图像,特征图的鲁棒性更强。

该网络需要有以下的特点:

  1. 对于同一场景中的不同时间季节拍摄的图像,提取的特征图是相似的。
  2. 对于不同场景拍摄的图像其提取的特征图是不同的。
  3. 对于初始的错误匹配位置,高斯牛顿算法可以朝着小范围内的正确匹配位置更新。

网络结构:

U-Net based,网络将(w,h,c)的输入图像III映射为(w,h,d)的特征图FFF

损失函数:

Lcontrastive (Fa,Fb,l)=Lpos (Fa,Fb,l)+Lneg(Fa,Fb,l)Lpos(Fa,Fb,l)=1Npos∑NposDfeat2Lneg(Fa,Fb,l)=1Nneg∑Nnegmax⁡(0,M−Dfeat)2其中Dfeat =∥Fal(ua)−Fbl(ub)∥2 \begin{aligned}\mathcal{L}_{\text {contrastive }}\left(\mathbf{F}_{a}, \mathbf{F}_{b}, l\right)=\mathcal{L}_{\text {pos }}\left(\mathbf{F}_{a}, \mathbf{F}_{b}, l\right)+\mathcal{L}_{\mathrm{neg}}\left(\mathbf{F}_{a}, \mathbf{F}_{b}, l\right)\end{aligned}\\\begin{aligned}\mathcal{L}_{\mathrm{pos}}\left(\mathbf{F}_{a}, \mathbf{F}_{b}, l\right)=& \frac{1}{N_{\mathrm{pos}}} \sum_{N_{\mathrm{pos}}} D_{\mathrm{feat}}^{2} \\\mathcal{L}_{\mathrm{neg}}\left(\mathbf{F}_{a}, \mathbf{F}_{b}, l\right)=& \frac{1}{N_{\mathrm{neg}}} \sum_{N_{\mathrm{neg}}} \max \left(0, M-D_{\mathrm{feat}}\right)^{2}\end{aligned}\\其中 \quad D_{\text {feat }}=\left\|\mathbf{F}_{a}^{l}\left(\mathbf{u}_{a}\right)-\mathbf{F}_{b}^{l}\left(\mathbf{u}_{b}\right)\right\|_{2} Lcontrastive (Fa,Fb,l)=Lpos (Fa,Fb,l)+L

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值