
融合定位
文章平均质量分 95
苏源流
从事计算机视觉和SLAM领域,2012年10月“全国大学生数学建模竞赛”二等奖(数学应用能),2011年攻读 自动化 专业,2015年攻读“模式识别与智能系统” 专业。现在主要工作内容无人驾驶方面的视觉定位与导航,能够提供整体的地下车库自动泊车定位解决方案,该方案也适用于工业园区泊车,物流机器人,园区巡视机器人,餐饮配送、服务机器人等。本人熟悉linux下ROS环境,掌握opencv中2/3的功能,掌握视觉SLAM中ORB_SLAM2,激光lidar的loam。熟悉摄像机,激光雷达,惯导IMU等传感器的使用与开发。主导和参与多个定位项目,欢迎交流。致力于推进技术的应用,技术改变生活。不做无脑人
展开
-
[无人驾驶]多传感器数据融
多传感器数据融合是一个新兴的研究领域,是针对一个系统使用多种传感器这一特定问题而展开的一种关于数据处理的研究。多传感器数据融合技术是近几年来发展起来的一门实践性较强的应用技术,是多学科交叉的新技术,涉及到信号处理、概率统计、信息论、模式识别、人工智能、模糊数学等理论。近年来,多传感器数据融合技术无论在军事还是民事领域的应用都极为广泛。多传感器融合技术已成为军事、工业和高技术开发等多方面关心的问...原创 2019-11-01 19:03:34 · 672 阅读 · 0 评论 -
[学习SLAM]ROS下robot_pose_ekf扩展卡尔曼融合包的使用案例(robot_pose_ekf) 篇章 (3)
最近在使用imu进行数据融合,使用的是robot_pose_ekf的融合包,发现网上的教程太不详细,折腾了1个月,终于搞定了。于是乎,想写一个关于ekf包的使用教程。里程计和惯导模块imu的数据融合来得到一个不易丢失的机器人姿态。首先,你得有一个imu,而且得校准好,我使用的是razor 9dof的imu,通过ros包pub一个Imu的data类型。这是我google的比较有用的一个ekf包的使用教程首先,先给大家看下我的tf!单里程计的tf这张图是单使用里程计的tf图片,你可以...原创 2021-03-04 16:44:07 · 3439 阅读 · 4 评论 -
[学习SLAM]基于EKF使用 robot_pose_ekf 对imu和odom进行融合定位(robot_pose_ekf) 篇章 (2)
使用 robot_pose_ekf 对imu和odom进行融合 robot_pose_ekf 是 ROS Navigation stack 中的一个包,通过扩展卡尔曼滤波器对 imu、里程计 odom、视觉里程计 vo 的数据进行融合,来估计平面移动机器人的真实位置姿态,输出 odom_combined 消息。robot_pose_ekf 只适用于平面上的轮式移动机器人,因此 odom 信息中的 z,pitch 和 roll 分量可以被忽略。IMU 可以提供车体坐标系相对于世界坐标系的姿态(R...转载 2021-01-28 11:26:59 · 6114 阅读 · 7 评论 -
[学习SLAM]基于EKF的Odometry+IMU+VO+GPS融合定位(robot_pose_ekf) 篇章 (1)
了解ROS的robot_pose_ekf软件包中扩展卡尔曼滤波器的用法:robot_pose_ekf软件包用于基于来自不同来源的(部分)位姿测量值来估计机器人的3D姿势。它使用带有6D模型(3D位置和3D方向)的扩展卡尔曼滤波器,将来自车轮里程计,IMU传感器和视觉里程计的测量结果结合起来。基本思想是提供与不同传感器的松散耦合集成,其中传感器信号以ROS消息的形式接收。主页:http://ros.org/wiki/robot_pose_ekfGithub:https://github.co..转载 2021-03-04 16:22:21 · 3610 阅读 · 2 评论