同时定位与地图构建:首先是估计自己的运动,然后描述环境这两件事。
困难之处:
数据来源只有图像等
视觉slam14讲有编程内容

书中有相关知识的小例题
一、视觉slam框架分为四个模块
定位和建图的相互耦合,把误差放在一起优化
基于激光的相机的传感器各有优劣
激光比较成熟,相机还不稳定(2016年)
相机便宜,计算资源大,光线充足,环境要有可辨识度。
按照种类来说,视觉slam分为三种:
单目相机,只能通过图像;双目相机和深度相机有距离这个因素。
距离只能通过移动之后来测量(否则不知道距离到底多远,近处物体变化大);
双目测量通过两个摄像头来产生深度(双眼看到的不一样);
深度相机通过物理方式,测量一个面,知道每一个点的深度,tof方法和结构光的方法(主动测量,功耗大,适合室内,量程小)。

视觉里程计:通过测量两两帧(或者多帧)之间的关系,估计运动,再把运动叠加起来
因为里程计是把局部的信息累加,因此也会累计局部的误差。因此需要后端优化。
回环检测,如果回到之前的位置,就可以调整里程计的信息,得到全局一致的机构
~因为得到的是特征点地图,因此为了应用,还需要重建。
二、视觉里程计
特征点法和直接发
三、后端有话
在噪声的消息中估计,滤波—>图优化
四、回环检测
以后讲
五、建图
十三讲中
slam可以看做离散时间1.。。k,机器人有不同的位置xk,看做随机变量,满足一定随机分布的。
运动方程:

观测方程
通过路标表示空间的一些东西
如果传感器在xk处探测到路标yj

观测取决于在xk看到的路标数量
六、实践
1、初试c++
git clone代码然后新建.cpp文件
#include <iostream>
using namespace std;

本文深入探讨了视觉SLAM(Simultaneous Localization And Mapping)的基本概念,包括其框架、难点及关键技术。从视觉SLAM的四大核心模块出发,解析了定位与建图的相互作用,介绍了视觉里程计的工作原理及其局限性,强调了后端优化和回环检测的重要性。此外,还提供了基于C++的实践指导,包括代码编写、编译和调试技巧。
最低0.47元/天 解锁文章
2854

被折叠的 条评论
为什么被折叠?



