计算机视觉与深度学习 | 非线性优化理论:图优化、高斯牛顿法和列文伯格-马夸尔特算法

本文介绍了视觉惯性SLAM中的非线性优化方法,包括高斯牛顿法和列文伯格-马夸尔特算法,以及图优化理论。这些算法在解决最小二乘问题和SLAM后端优化中起关键作用。同时,概述了宋涛博士及其团队在智能感知、图像处理和计算机视觉领域的研究贡献。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

=====================================================
github:https://github.com/MichaelBeechan
优快云:https://blog.youkuaiyun.com/u011344545

=====================================================
计算机视觉与深度学习 | SLAM国内外研究现状
计算机视觉与深度学习 | 视觉惯性SLAM的基础理论
计算机视觉与深度学习 | 基于点线融合的视觉惯性SLAM前端

高斯牛顿法和列文伯格-马夸尔特算法

  • 在SLAM中,需要对载体的状态量进行估计。对于一系列观测值,可以利用观测值和状态量之间的约束关系,
列文伯格-马夸尔特算法(Levenberg-Marquardt algorithm)是一种非线性最小二乘优化算法,用于解决非线性最小二乘问题。下面是列文伯格-马夸尔特算法的推导过程: 1. 非线性最小二乘问题的一般形式为: $$ \min_{x} \frac{1}{2} \sum_{i=1}^{m} r_{i}^{2}(x) $$ 其中,$x$ 是一个 $n$ 维向量,$r_{i}(x)$ 是一个关于 $x$ 的非线性函数,$m$ 是数据点的数量。 2. 首先,我们将 $r_{i}(x)$ 在 $x_{k}$ 处进行泰勒展开,得到: $$ r_{i}(x) \approx r_{i}(x_{k}) + J_{i}(x_{k}) (x - x_{k}) $$ 其中,$J_{i}(x_{k})$ 是 $r_{i}(x)$ 在 $x_{k}$ 处的雅可比矩阵。 3. 将上式代入非线性最小二乘问题中,得到: $$ \min_{x} \frac{1}{2} \sum_{i=1}^{m} [r_{i}(x_{k}) + J_{i}(x_{k}) (x - x_{k})]^{2} $$ 4. 对上式进行求导,得到: $$ J(x_{k})^{T} J(x_{k}) \Delta x = -J(x_{k})^{T} r(x_{k}) $$ 其中,$J(x_{k})$ 是 $r(x)$ 在 $x_{k}$ 处的雅可比矩阵,$\Delta x = x - x_{k}$。 5. 如果 $J(x_{k})^{T} J(x_{k})$ 是非奇异矩阵,则可以直接求解 $\Delta x$: $$ \Delta x = -(J(x_{k})^{T} J(x_{k}))^{-1} J(x_{k})^{T} r(x_{k}) $$ 6. 如果 $J(x_{k})^{T} J(x_{k})$ 是奇异矩阵,则可以使用列文伯格-马夸尔特算法。具体来说,我们可以将上式改写为: $$ (J(x_{k})^{T} J(x_{k}) + \lambda I) \Delta x = -J(x_{k})^{T} r(x_{k}) $$ 其中,$\lambda$ 是一个正的常数,$I$ 是单位矩阵。 7. 如果 $\lambda$ 很小,则上式退化为高斯牛顿法;如果 $\lambda$ 很大,则上式退化为梯度下降法。因此,我们可以通过不断调整 $\lambda$ 的值,来实现在高斯牛顿法梯度下降法之间的平衡。 8. 最终,我们可以通过以下方式更新 $x$: $$ x_{k+1} = x_{k} + \Delta x $$
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

北斗猿

代码有情,打赏有爱!谢谢!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值