视觉SLAM十四讲---第一、二讲(讲解slam框架, c++编译实践)

本文深入探讨了视觉SLAM(Simultaneous Localization And Mapping)的基本概念,包括其框架、难点及关键技术。从视觉SLAM的四大核心模块出发,解析了定位与建图的相互作用,介绍了视觉里程计的工作原理及其局限性,强调了后端优化和回环检测的重要性。此外,还提供了基于C++的实践指导,包括代码编写、编译和调试技巧。

同时定位与地图构建:首先是估计自己的运动,然后描述环境这两件事。

困难之处:

数据来源只有图像等

视觉slam14讲有编程内容

在这里插入图片描述
书中有相关知识的小例题

一、视觉slam框架分为四个模块

定位和建图的相互耦合,把误差放在一起优化

基于激光的相机的传感器各有优劣
激光比较成熟,相机还不稳定(2016年)
相机便宜,计算资源大,光线充足,环境要有可辨识度。

按照种类来说,视觉slam分为三种:

单目相机,只能通过图像;双目相机和深度相机有距离这个因素。
距离只能通过移动之后来测量(否则不知道距离到底多远,近处物体变化大);

双目测量通过两个摄像头来产生深度(双眼看到的不一样);

深度相机通过物理方式,测量一个面,知道每一个点的深度,tof方法和结构光的方法(主动测量,功耗大,适合室内,量程小)。

在这里插入图片描述

视觉里程计:通过测量两两帧(或者多帧)之间的关系,估计运动,再把运动叠加起来

因为里程计是把局部的信息累加,因此也会累计局部的误差。因此需要后端优化。

回环检测,如果回到之前的位置,就可以调整里程计的信息,得到全局一致的机构

~因为得到的是特征点地图,因此为了应用,还需要重建。

二、视觉里程计
特征点法和直接发
三、后端有话
在噪声的消息中估计,滤波—>图优化
四、回环检测
以后讲
五、建图
十三讲中

slam可以看做离散时间1.。。k,机器人有不同的位置xk,看做随机变量,满足一定随机分布的。

运动方程:
在这里插入图片描述

观测方程
通过路标表示空间的一些东西
如果传感器在xk处探测到路标yj
在这里插入图片描述
观测取决于在xk看到的路标数量

六、实践
1、初试c++
git clone代码然后新建.cpp文件

#include <iostream>
using namespace std;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值