拆分基础slam(3)-后端优化:KF and BA

后端优化

我写文章喜欢一个板块写完,如果觉得累看不完没关系,休息会下次再来,我积累不深,有错误欢迎大家指出。前端的视觉里程计使我们能够粗略估算相机和机器人的移动,但必定会有误差的产生和累积。所以我们需要在相机进行姿态估计后将得到的数据放到后端进行优化,降低观察点批的误差。

运动、观测方程与贝叶斯

对于一个小车,运动方程为:
x k = f ( x k − 1 , u k ) + w k x_{k}=f\left( x_{k-1},u_{k}\right)+w_{k} xk=f(xk1,uk)+wk
观测方程为:
z k , j = h ( y j , x k ) + v k , j z_{k,j}=h\left( y_{j},x_{k}\right)+v_{k,j} zk,j=h(yj,xk)+vk,j
在上式中,x代表相机的位姿,y代表路标,z代表观测数据。运动方程的意思是这一刻的运动状态等于上一时刻运动状态和控制输入的共同作用结果,再加上一个误差。观测方程的意思是相机的观测数据等于机器人的位姿和路标点(特征点)的共同作用结果(相机观测方程h),再加上一个误差。在后端优化中,比如BA算法就是用最小二乘法尽力降低这个误差项。
此时我要讲到一个条件概率公式:
P ( x k ∣ x 0 , u 1 : k , z 1 : k ) P\left( x_{k}|x_{0,u_{1:k},z_{1:k}}\right) P(xkx0,u1:k,z1:k)
这个公式的意思是k时刻小车的状态是由0时刻的状态和一系列的输入信号u和观测信号z决定的。设想如果这个公式的值为1会发生什么?就是说如果k-1时刻之前按照公式里给的走的话,那么小车状态一定会变成xk。所以很多时候用贝叶斯法则优化问题时,就是让这个公式的值越大越好,这个方法叫最大后验估计。下面我讲怎么优化。
由贝叶斯法则:
P ( x k ∣ x 0 , u 1 : k , z 1 : k ) ∝ P ( z k ∣ x k ) P ( x k ∣ x 0 , u 1 : k , z 1 : k − 1 ) P\left( x_{k}|x_{0,u_{1:k},z_{1:k}}\right)\propto P \left( z_{k}|x_{k}\right)P\left(x_{k}|x_{0},u_{1:k},z_{1:k-1}\right) P(xkx0,u1:k,z1:k)P(zkxk)P(xkx0,u1:k,z1:k1)
这个式子就是贝叶斯法则的核心应用,右边省略了分母,一个常数无关项,因为我们想优化为最大值,所以具体多少不重要,就变成了正比于。第一项叫似然指的是在发生某事的情况下观察到它的概率,这其实就是观测关系。第二项叫先验,指的是还没有观测到这件事发生的情况下这件事发生的概率(相比原式少了一个zk,就是没观测到k时刻状态)。
我们刚才把目标式子拆分为了先验和似然,似然已经可以获得了,我们现在讲讲先验有何意义,如何获得。
P ( x k ∣ x 0 , u 1 : k , z 1 : k − 1 ) = ∫ P ( x k ∣ x k − 1 , x 0 , u 1 : k , z 1 : k − 1 ) P ( x k − 1 ∣ x 0 , u 1 : k , z 1 : k − 1 ) d x k − 1 P\left( x_{k}|x_{0},u_{1:k},z_{1:k-1}\right)=\int P\left( x_{k}|x_{k-1},x_{0},u_{1:k},z_{1:k-1}\right) P\left( x_{k-1}|x_{0},u_{1:k},z_{1:k-1}\right)dx_{k-1} P(xkx0,u1:k,z1:k1)=P(xkxk1,x0,u1:k,z1:k1)P(xk1x0,u1:k,z1:k1)dxk1
这个式子的意思是:发展为xk状态的概率是无数种x(k-1)状态的概率乘以该状态发展为xk状态的概率再求和。就是说有很多种发展为xk的路,那么发展为xk的概率就等于各种路走过来的概率求和,够具象吧。此时上式的右边就又等于原式往前递推一个状态了,就成一个递归关系了,我们能够回溯到x0状态。
从此,我们就可以将一个状态递推回上一个状态了。我们对这一个过程假设马尔科夫性,即该状态只和上一个状态相关,这种假设下的优化办法主要是卡尔曼滤波。

卡尔曼滤波

我们看上面那个带积分号的式子,是这个式子连接了状态递推。刚才我们说了xk状态只与x(k-1)有关,我现在会依据这个规则简化上式右边:
P ( x k ∣ x k − 1 , x 0 , u 1 : k , z 1 : k − 1 ) = P ( x k ∣ x k − 1 , u k ) P\left( x_{k}|x_{k-1},x_{0},u_{1:k},z_{1:k-1}\right) =P\left( x_{k}|x_{k-1},u_{k}\right) P(xkxk1,x0,u1:k,z1:k1)=P(xkxk1,uk)
这个式子原先意思是由上一个状态发展为这个状态的概率跟之前很多状态的观测输入等都有关,现在简化为只跟上个状态和它的输入有关。我们看第二部分:
P ( x k − 1 ∣ x 0 , u 1 : k , z 1 : k − 1 ) = P ( x k − 1 ∣ x 0 , u 1 : k − 1 , z 1 : k − 1 ) P\left( x_{k-1}|x_{0},u_{1:k},z_{1:k-1}\right)=P \left( x_{k-1}|x_{0},u_{1:k-1},z_{1:k-1}\right) P(xk1x0,u1:k,z1:k1)=P(xk1x0,u1:k1,z1:k1)
这个式子意思是k时刻的输入与k-1时刻的状态无关,自然就拿掉了。
我着重讲清楚贝叶斯公式怎么添加马尔可夫性,卡尔曼滤波的前提就是马尔科夫性,卡尔曼滤波不推了,我再讲下卡尔曼滤波怎么应用。
第一步是计算先验:
x ‾ k = A k x ^ k − 1 + u k \overline{x}_{k}=A_{k} \hat x_{k-1} +u_{k} xk=Akx^k1+uk
上式中左边叫做先验,上划线表示,右边是上一次的后验,用上尖号表示。上式是运动方程,表示状态从k-1时刻通过输入控制信号作用转移到了k时刻的状态。用上一时刻的后验状态(因为上一时刻已经获得了叫后验)来计算这一时刻的先验状态。
第二步我们需要估算下一时刻的先验概率:
P ‾ k = A k P ^ k − 1 A k T + R \overline{P}_{k}=A_{k} \hat P_{k-1} A_{k}^{T} +R Pk=AkP^k1AkT+R
要理解上式中Pk和Pk-1要看我这节的第一二个式子,第一个式子表示的是先验,因为z还停留在k-1时刻,它就在说k时刻的概率了;第二个式子表示的是后验,x的状态是k-1时刻的,但k-1时刻z已经观测了x的状态了。所以上式就是当前状态后验概率推下一个状态先验概率。R是运动方程中包含误差的标准差。
第三步是计算卡尔曼增益:
K = P ‾ k C K T ( C k P ‾ k C k T + Q ) − 1 K=\overline{P}_{k} C_{K}^{T}(C_{k} \overline{P}_{k} C_{k}^{T} +Q )^{-1} K=PkCKT(CkPkCkT+Q)1
上式计算卡尔曼增益用的是上一步中得到的先验概率计算,Q表示的是观测方程中高斯分布的标准差。
第四步使用卡尔曼增益更新先验为后验:
x ^ k = x ‾ k + K ( z k − C k x ‾ k ) P ^ k = ( I − K C k ) P ‾ k \hat x_{k}=\overline{x}_{k} + K(z_{k}-C_{k} \overline x_{k}) \\ \hat P_{k}=(I-KC_{k}) \overline P_{k} x^k=xk+K(zkCkxk)P^k=(IKCk)Pk
我们在实际的相机模型,观测方程经常是非线性的,这时需要使用扩展卡尔曼滤波,基本的思想是在某个点附近采用一阶线性化,思想是非常类似的。
卡尔曼滤波的方法需要的计算资源小,原理简单,但是存在一些局限性:1、开始的时候我们就做了假设,当前状态只与上一次的状态相关,但事实上肯定会与更早的数据有所关联,比如我看见了很久之前见过的东西(回环检测)。2、我们在使用EKF的时候,进行了一阶近似,但是这一步同样会带来误差。
所以更大型的工程中使用更多的是非线性优化的方法。

BA

在之前我讲解前端的算法中提到了BA优化,可以同时优化相机的姿态和空间点坐标,优化的目标函数如下:
e = z − h ( ξ , p ) 1 2 ∑ i = 1 m ∑ j = 1 n ∣ ∣ e i j ∣ ∣ 2 = 1 2 ∑ i = 1 m ∑ j = 1 n ∣ ∣ z i j − h ( ξ i , p j ) ∣ ∣ 2 e=z-h(\xi,p) \\ \frac{1}{2}\sum\limits_{i = 1}^m \sum\limits_{j = 1}^n ||e_{ij}||^2=\frac{1}{2}\sum\limits_{i = 1}^m \sum\limits_{j = 1}^n||z_{ij}-h(\xi_{i},p_{j})||^2 e=zh(ξ,p)21i=1mj=1neij2=21i=1mj=1nzijh(ξi,pj)2
对上式不了解的同学可以看:
前端算法
这个BA算法其实贯穿前后端,既用在前端来计算相机位姿,同时带批优化的功能。在上一章我主要讲了这个算法怎么引出,这张着重讲一些数学方面的内容,如何利用稀疏性和边缘化解这个问题。
我们先引出这个问题和它的难点。因为我们知道观测模型h是非线性过程,我们不能用一般的解方程思想来求解,这些东西在数值分析中会学到。求解大型方程组或者非线性模型,我们首先初始化一个解,然后寻找能够使残差下降的方向来更新x。我们来看看BA优化需要优化的变量:
x = [ ξ 1 , . . . , ξ m , p 1 , . . . , p n ] T x=[\xi_{1},...,\xi_{m},p_{1},...,p_{n}]^{T} x=[ξ1,...,ξm,p1,...,pn]T
我们在上一章也讲到了,BA优化的项目是姿态和空间点。用我刚才说到的思想,给初始化的x一个下降方向来优化解,所以目标函数变为:
1 2 ∣ ∣ f ( x + △ x ) ∣ ∣ 2 = 1 2 ∑ i = 1 m ∑ j = 1 n ∣ ∣ e i j + F i j △ ξ i + E i j △ p j ∣ ∣ 2 \frac{1}{2}||f(x+\triangle x)||^2=\frac{1}{2} \sum\limits_{i=1}^{m}\sum\limits_{j=1}^{n}||e_{ij}+F_{ij}\triangle \xi_{i}+E_{ij} \triangle p_{j}||^2 21f(x+x)2=21i=1mj=1neij+Fijξi+Eijpj2
上式中表示的是给x一个差分,会引起关于位姿和空间点的一个误差,F代表的是误差函数对相机姿态的偏导,E代表的是误差函数对空间点的偏导,我们要最小化这个函数。取最速下降法(需要学习高等数值分析和高斯牛顿法)来优化这个方程,最速下降法的意思是x每次都往使代价函数下降最快的方向修正,那么为了求解这个deltax,我们需要求解以下方程组:
J ( x ) T J ( x ) △ x = − J ( x ) T f ( x ) J(x)^{T}J(x)\triangle x=-J(x)^Tf(x) J(x)TJ(x)x=J(x)Tf(x)
上式中J是雅各比矩阵,意思是代价函数关于自变量的导数。在很多资料中这个式子会写成:
H △ x = g H\triangle x=g Hx=g
我们回到要求解的问题上面来,我们要优化姿态和空间点两个变量,我之前已经写了代价函数关于这两个变量的偏导分别为E和F,那么:
J = [ F E ] J=[F \quad E] J=[FE]
则:
H = J T J = [ F T F F T E E T F E T E ] H=J^TJ=\left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 F^TF\quad F^TE\\ %第一行元素 E^TF\quad E^TE\\ %第二行元素 \end{array} \right] H=JTJ=[FTFFTEETFETE]
我们现在要求解这个deltax就需要求解H矩阵,这时一个数学问题,H矩阵的维度会非常大,因为我们能看见非常多的路标点特征点,如果要求逆难度就会更高,所以我们提出稀疏化和边缘化来加快这个计算。下一节会是数学解释,但是会加深Slam过程的理解。BA的主要原理以及解释完毕了。

稀疏化和边缘化

首先要说一个基本的性质,当小车在某个姿态的时候,它不一定能看见所有点,所以此时代价函数在这个姿态下关于这个路标的导数就该是0。这样的结果就是虽然点非常多,但在我们处理起来的时候仍然会有很多0.
我们关于在i姿态下得到的雅各比矩阵就会有以下形式:
J i j ( x ) = ( 0 2 ∗ 6 , . . . , 0 2 ∗ 6 , ∂ e i j ∂ ξ i , 0 2 ∗ 6 , . . . 0 2 ∗ 3 , ∂ e i j ∂ p j , 0 2 ∗ 3 , . . . , 0 2 ∗ 3 ) J_{ij}(x)=(0_{2*6},...,0_{2*6},\frac{\partial e_{ij}}{\partial\xi_{i}},0_{2*6},...0_{2*3},\frac{\partial e_{ij}}{\partial p_{j}},0_{2*3},...,0_{2*3}) Jij(x)=(026,...,026,ξieij,026,...023,pjeij,023,...,023)
在状态为i观测点为j的情况下的雅各比矩阵只有两个非零项,只描述了一个观察状态。我认为有两行的原因可能是因为有姿态和空间点两个变量,偏导事实上会包含两个组成成分(我思考的结果,仅作参考欢迎指正)。位姿的六个维度分别是罗德里格斯向量三位加上t三位,空间点的三个维度好理解。由此雅各比矩阵的分析结束。由此我们可以描述形态关系如下,取高翔老师的图:
在这里插入图片描述
我们就可以知道H的形态,我们最终的H计算式如下:
H = ∑ i , j J i j T J i j H=\sum\limits_{i,j}J_{ij}^TJ_{ij} H=i,jJijTJij
H就是我们在所有姿态下观测到的所有路标点组合在一起,我们进一步给一个更全面的图:
s
左侧的雅各比矩阵代表着在某些姿态下我们观测到了某些点,计算出的H矩阵形态如右图所示。这个矩阵我们可以把它分为四块:
在这里插入图片描述
上图中B矩阵是J中的姿态对应姿态,当然只能对焦对应,C矩阵是点对点,同理。E矩阵就是姿态对点的观测。我们求解的关键问题就出现了如下转换:
H △ x = g ≫ [ B E E T C ] [ △ x c △ x p ] = [ v w ] H \triangle x=g\gg \left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 B\quad E\\ %第一行元素 E^T\quad C\\ %第二行元素 \end{array} \right] \left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 \triangle x_{c}\\ %第一行元素 \triangle x_{p}\\ %第二行元素 \end{array} \right]=\left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 v\\ %第一行元素 w\\ %第二行元素 \end{array} \right] Hx=g[BEETC][xcxp]=[vw]
为什么要理解H矩阵的型式?关键在于我们知道了BC是两个对角矩阵,这种矩阵求逆非常容易,比直接对H矩阵求逆快很多,这就是意识到稀疏性和边缘化的意义所在,看消元过程,消去右上角E:
[ B − E C − 1 E T 0 E T C ] [ △ x c △ x p ] = [ v − E C − 1 w w ] \left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 B-EC^{-1}E^T \quad 0\\ %第一行元素 E^T \qquad \qquad C\\ %第二行元素 \end{array} \right]\left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 \triangle x_{c}\\ %第一行元素 \triangle x_{p}\\ %第二行元素 \end{array} \right]=\left[ %左括号 \begin{array}{ccc} %该矩阵一共3列,每一列都居中放置 v-EC^{-1}w\\ %第一行元素 w\\ %第二行元素 \end{array} \right] [BEC1ET0ETC][xcxp]=[vEC1ww]
我们利用第一行解出xc,代入第二行接触xp问题就解决了。先消去右上角我们叫做边缘化或者舒尔消元。好处我也说了,对角阵利于求逆。

鲁棒核函数

这里提一句使用鲁邦核函数的原因是防止出现过于离谱的误差干扰我们的代价函数。因为代价函数是二范数形式的,也就是说如果出现了一个很大的误差,那么在优化中对问题准确度的影响会非常大,所以修改二次误差为如下形式:
H ( e ) = { 1 2 e 2 i f ∣ e ∣ ≤ δ δ ( ∣ e ∣ − 1 2 δ ) o t h e r w i s e H(e)=\left\{ \begin{aligned} \frac{1}{2}e^2 \qquad if |e|\leq \delta \\ \delta(|e|-\frac{1}{2} \delta) \quad otherwise \end{aligned} \right. H(e)=21e2ifeδδ(e21δ)otherwise
使误差过大的项从二次变为一次。

位姿图优化

后端中除了可以使用BA,也可以使用位姿图优化的方法。下节再讲吧。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值