SLAM 三维传感器 点滴

本文介绍了多种传感器技术,包括Kinect、RGB-D摄像头、TOF相机、激光雷达等的工作原理及应用场景。探讨了它们在精度、测量范围、抗干扰能力等方面的优劣,并对比了不同技术的特点。
各种传感器,使用范围与优劣


检测精度和速度,测量范围;广角


应用场合


点云


Kinect:有一个IR light; 两个CMOS: Depth Image CMOS 和 Color Image CMOS
红外激光投射器,投射出随机的激光散斑,即结构光
与摄像头的距离不同,所以拍出的位置也不同,计算拍到的图的斑点和标定的标准图案在不同位置的位移,根据相机参数等可以求出物体到摄像头的距离
第一代kinect的最大缺点在于精度很难提高,因为计算斑点位移需要用图像在一个小范围区域内来做块匹配,导致牺牲了像素级别的细节。凹凸不平的表面、物体边缘、很细的物体很难检测准确的深度。比如水杯的把手很难识别,人脸也容易退化成球状,圆形的物体边缘也不够圆滑。tof在一定程度上可以做到逐个pixel的计算,从而摆脱逐个物体,在相同的传感器分辨率下有更高的精度


kinect2用的是tof: 重建效果好的,都不会是实时的
是tof,但不是用直接发射光子然后测返回时间,那样精度太差;现在一般是发射一个强度随时间周期变化的正弦信号,通过发射、接收信号的相位差来计算,精度高很多
微软已经和primesense分手


RGB-D摄像头:又叫深度相机depth camera. 包括kinect,kinect2都算;
常用于室内? 室外光照太强?
PMD公司的TOF相机可以抗强光干扰了,因此可以室外使用,厂家是采用了SBI技术,有篇文章具体介绍来着。MESA公司的深度相机还没解决,只能在室内使用
3D激光雷达是逐点扫描,而TOF相机则是同时得到整幅图像的深度信息
体积小。深度精度在cm级
深度相机之TOF初探: http://blog.youkuaiyun.com/figo829/article/details/8560673
TOF相机基本知识: http://www.cnblogs.com/freshmen/p/4818196.html


tof:发出激光脉冲,测返回时间,精度受量测时间影响,3.3ps;光信号走了1cm;每次只能测一个点,所以内部旋转镜的扫描方式;


三角测距:激光光点、摄像机、激光构成一个三角形


三维扫描/重建


接触式扫描:
结构光:把一维或二维图像投影,根据图像的形变来测
双目
用普通摄像头拍照多次实现3D扫描:有很多工具,123DCatch; PMVS,CMVS;


sfm: structure from motion


激光雷达: 和 tof、 RGB-D 相机有什么区别??
目标有相对速度,用多普勒频移来测
应该是原理有些不一样: 激光雷达发射激光,光束集中性好,用旋转来扫过每一个点,而深度相机发射经过调制的光,同时获取面上的深度,无需扫描
激光雷达往往能测很远,而深度相机(depth camera,RGB-D)往往只能测几米或十几米,室内范围
激光雷达通常70m,远一点100m,用毫米波雷达,可以测的更远
激光雷达lidar
三角测量法
TOF飞行时间法
相位差法
TOF深度相机
实际上是采用相位偏移法测量;
TOF深度相机相比lidar的TOF是 采集速度快,硬件便宜
缺点是噪点很明显,并且需要标定,并且受外界光和本身主动光的影响。 而且曝光时间不容易确定





64线激光雷达


激光雷达,英文全称为 Light Detection And Ranging,简称LiDAR,即光探测与测量,是一种集激光,全球定位系统(GPS)和惯性导航系统(INS)三种技术于一身的系统,用于获得数据并生成精确的DEM(数字高程模型)


Velodyne HDL-64E Lidar,即Velodyne公司64线激光雷达是目前世界上最先进,体积最小,单位能量密度最高,采集数据最丰富的专业激光传感器。集成了64束激光发射器和64个激光接收器。360度的旋转,最高15Hz的转动频率,每周4000个点的采集频率,让64E Lidar激光雷达当之无愧的成为当今世界不予伦比的激光雷达王者。


车载激光雷达:车载激光雷达又称车载三维激光扫描仪,是一种移动型三维激光扫描系统,是目前城市建模的最有效的工具之一


激光雷达,在雨天、雾天也不行,只能用毫米波雷达,而毫米波雷达,单线的一个也要10w。
这类雷达应用叫做自动巡航控制,已经用在中高档汽车上
毫米波雷达 欧洲77GHz,日本60GHz,美国24GHz;


889067激光雷达介绍.pdf
http://www.fs3s.com/newslist.aspx?ac=tech&Id=20


SLAM 相关产品 AR VR
Project Tango: RGB-D + GPS
Qualcomm Vuforia Featured Apps
https://www.youtube.com/watch?v=GrP_xwrCtB0
Metaio: 一个做AR应用的SDK,用android/iphone/PC摄像头均可
索尼smartAR


多传感器融合,室内就是 RGB+Depth+IMU+其他;室外:stereo+IMU+Laser+GPS+其他

### SLAM三维重建实现方法 #### 背景介绍 SLAM(Simultaneous Localization and Mapping),即同步定位与地图构建技术,在机器人导航、增强现实等领域具有广泛应用。通过SLAM算法,可以实现在未知环境中实时获取设备位置并创建环境的地图模型。 #### 基于特征点级别的三维重建 在三维重建领域,基于特征点的方法是一种经典的技术路线。这种方法将三维重建问题转化为经典的SLAM问题,并利用滤波器等工具来解决尺度估计和状态更新等问题[^1]。具体来说,该过程涉及以下几个方面: - **特征提取** 使用图像处理中的特征检测算法(如SIFT、SURF或ORB)从输入图像中提取稳定的特征点。这些特征点通常具备良好的可重复性和鲁棒性。 - **匹配与三角化** 对连续帧之间的特征点进行匹配,随后采用多视几何原理计算空间中对应点的三维坐标。这一阶段的核心在于建立相机姿态与世界坐标的关联关系。 - **优化框架** 随着观测数据增多,系统误差会逐渐累积。因此需要借助全局优化手段(例如Bundle Adjustment, BA)对所有参数重新调整,从而提高整体精度。 #### ORB-SLAM的具体架构分析 作为一种成熟的开源解决方案,ORB-SLAM被广泛应用于单目视觉场景下的SLAM任务当中。它主要分为三大模块运行机制:跟踪、建图以及闭环检测/校正[^2]。 - **Tracking Thread (跟踪线程)** 主要负责预测当前摄像头位姿并通过局部映射维护最新轨迹信息;当新画面到来时快速找到最佳匹配候选集完成初始化操作或者继续扩展已有路径节点。 - **Local Mapping Thread (本地制图线程)** 完成新增关键帧插入及其邻域内结构细化工作,包括但不限于剔除异常值、补充缺失部分等功能。 - **Loop Closure Detection & Correction Thread (闭合回路探测及矫正线程)** 自动识别历史访问区域是否存在重叠现象以便消除漂移效应影响最终成果质量。 以下是简化版伪代码展示如何启动一个基本版本的ORB_SLAM程序流程: ```cpp // 初始化ORB_SLAM对象实例 OrbSlamSystem orb_slam(voc_file_path, settings_config); while (!is_shutdown()) { Mat frame = capture_next_image(); // 获取下一帧图片 if(!frame.empty()){ orb_slam.TrackMonocular(frame); // 单目模式下执行追踪逻辑 } } orb_slam.Shutdown(); // 结束服务释放资源 ``` #### 总结说明 综上所述,无论是理论层面还是工程实践角度出发,围绕SLAM开展三维重建项目均需关注核心环节的设计合理性及时效平衡考量因素。只有深入理解各个组成部分的工作原理才能更好地应对实际开发过程中遇到的各种挑战。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值