
多传感器融合
文章平均质量分 55
妄想出头的工业炼药师
技能:
定位;
三维配准;
三维重建/SLAM/ROS;
Point Cloud Library;
计算机图形学;
机器学习;
c++软件/网络通信;
展开
-
imu的深度学习方案
https://arxiv.org/pdf/1904.06064 GitHub - mbrossar/ai-imu-dr: AI-IMU Dead-ReckoningGitHub - mbrossar/denoise-imu-gyro: Convolutional Neural Networks for Denoising Gyroscopes of Low-Cost IMUs原创 2024-10-08 16:53:44 · 375 阅读 · 0 评论 -
4d 毫米波雷达slam
GitHub - christopherdoer/rio: RIO - EKF-based Radar Inertial Odometry using 4D mmWave radar sensors GitHub - hilbertletanger/Radar_SAM: 基于LIO_SAM二次开发的,使用4D毫米波雷达/gps/imu的radar_slam方法原创 2023-06-06 08:27:59 · 684 阅读 · 0 评论 -
传感器硬件同步
激光SLAM:Livox激光雷达硬件时间同步原创 2023-06-05 11:23:00 · 72 阅读 · 0 评论 -
6轴imu姿态计算(非EKF的算法)
这两篇文章说的比较好:原创 2023-06-05 10:57:25 · 821 阅读 · 0 评论 -
imu和GPS
使用 IMU 和 GPS 进行偏航对准 - 知乎原创 2023-03-27 18:50:34 · 186 阅读 · 0 评论 -
多传感器时空同步器
fastlivo相机激光imu同步器。orb_slam3相机imu同步器。原创 2023-03-17 09:24:53 · 170 阅读 · 0 评论 -
Fast-LIVO和R3LIVE
Fast-LIVO追求精度。原创 2023-01-17 14:15:53 · 1727 阅读 · 0 评论 -
fast-LIVO安装测试
跟着readme就可以。将相关代码改掉即可。原创 2023-01-12 11:46:00 · 1120 阅读 · 0 评论 -
港大火星的代码
论文: git:视频:原创 2022-12-20 11:07:11 · 160 阅读 · 0 评论 -
3D激光雷达和相机融合
GitHub - johannes-graeter/limo: Lidar-Monocular Visual Odometry原创 2022-12-20 09:23:05 · 1662 阅读 · 0 评论 -
运动去畸变
方法1.把一帧点云按时间均分为三个子帧,子帧内部近似认为所有点是在同一时刻采样的,每个子帧都单独执行 scan to map 配准,就像正常的帧一样;方法2. 线性插值,假设雷达在一帧期间内是匀速运动的,如此可以按照线性插值对每一个点做去运动畸变。在实际中,作者发现,第一种方法虽然看起来很粗糙,但实际效果却意外的好,甚至优于第二种方法。原创 2022-12-08 17:30:35 · 200 阅读 · 0 评论 -
视觉轮式里程计紧耦合
VINS-Mono融合轮式编码器和GPS(一):预积分_wallong的博客-优快云博客_编码器预积分原创 2022-04-21 18:30:52 · 311 阅读 · 0 评论 -
kalibr使用笔记
官网GitHub - ethz-asl/kalibr: The Kalibr visual-inertial calibration toolboxThe Kalibr visual-inertial calibration toolbox. Contribute to ethz-asl/kalibr development by creating an account on GitHub.https://github.com/ethz-asl/kalibr 编译编译kalibr的Bug:f原创 2022-04-18 17:12:01 · 5685 阅读 · 1 评论 -
相机激光雷达融合的三维重建
相机激光雷达融合的三维重建原创 2022-04-11 19:04:25 · 618 阅读 · 0 评论 -
关于滤波还是图优化
主旨:不管白猫黑猫,抓到老鼠就是好猫!卡尔慢滤波(线性/非线性):一般用于低算力平台,输出实时结果,公式比较简单,一般找到模型就好办,比较考验调PQR的工程经验和功力;因子图:好处当然是精度提高了,多迭代几次肯定比迭代一次靠谱,这样抑制误差的时间又可以变得更长了。又有历史数据作为决策,其实卡尔慢滤波也是从历史数据迭代出来的(但不保存历史数据),输出的协方差也可以作为判据使用,所以我觉得这两种就是卡尔慢滤波就平台而言比较通用,因子图是卡尔慢滤波的进化版本。因子图考验的东西就更多了,第一,模型功力要求高原创 2022-03-30 19:49:36 · 5386 阅读 · 0 评论 -
基于RGBD相机的Cartographer调试
硬件Realsense D435i,Jetson Nano软件调试深度图转LaserScan<?xml version="1.0" ?><launch> <node pkg="depthimage_to_laserscan" type="depthimage_to_laserscan" name="depthimage_to_laserscan"> <param name="camera_info" value="/camera/depth/原创 2022-03-17 21:02:22 · 2102 阅读 · 2 评论 -
便宜自动驾驶定位方案
百度安全验证https://baijiahao.baidu.com/s?id=1633684240520134391&wfr=spider&for=pc原创 2022-03-24 11:23:13 · 3938 阅读 · 0 评论 -
仿ROS的C++版本时间管理类
目标设计C++时间管理类,实现类似ROS中ros::Time::now()功能,能够直接输出double类型的时间戳。只不过有所变化:可以选择时间戳的精度。实施在函数体static TimeUtil now()中使用非静态变量时,会报错:Error: invalid use of member in static member functionc++ - Error: invalid use of member in static member function - Stack Over原创 2022-03-15 14:35:16 · 829 阅读 · 0 评论 -
pkg-config转find_package
在使用robot_pose_ekf包时,需要将orocos-bfl库置于交叉编译环境中进行编译,其中在cmake中,pkg-config库管理器必须要设置绝对路径,但一般服务器上绝对路径需要权限,但开发人员一般没有权限,导致pkg-config无法使用,只能将pkg-config转成find_package使用,find_package可以提供相对路径,使用参考如下:The Bayesian Filtering Library | The Orocos Projecthttps://ww..原创 2022-03-12 10:46:58 · 413 阅读 · 0 评论 -
简易SLAM轨迹真值获取
坐标纸单目监控SLAM轨迹真值获取装置 - 知乎SLAM性能的一个很重要的指标是定位精度,公开的室内数据集一般会采用动捕设备获取设备轨迹真值。但是动捕设备价格昂贵,OptiTrack百万以上,国产的Nokov >20W。没有动捕设备,我们就很难用自己采集的数据评估SL…https://zhuanlan.zhihu.com/p/60589790?from_voters_page=trueGitHub - ydsf16/ground_truth_estimation_2d: 2D.原创 2022-03-11 11:56:51 · 5643 阅读 · 2 评论 -
航姿参考系统(AHRS)
硬件STM32F10X,MPU9250(MPU6500+AK8963);算法基于开源的Madgwick filter,要求输入数据转化成以NED坐标系为表示的加速度、陀螺仪、磁力计数据(convention(aN, aE, aD, gN, gE, gD, mN, mE, mD)从MPU9250的DataSheet可知,坐标系关系如下:但实际测试后的坐标系关系却如下:因此转化以NED坐标系表示的结果如下:如果要把NED后的pitch,roll,yaw转成以...原创 2022-03-01 16:40:40 · 1219 阅读 · 0 评论 -
惯导元器件选型
[Motion]MPU9250的基本性能参数_suxiang198的博客-优快云博客_mpu9250精度简述MPU9250是Invensense的一颗9 axis运动传感器(Motion Tracking)。这里的9轴和空间理解的9轴不一样,其实是相当于分别的3颗3轴传感器(加速度计–Accelerator, 陀螺仪–Gyroscope,磁力计–Magnetometer)的合体,这样加起来就算是9轴了……总之,利用这些运动时产生的加速度、角速度、磁场强度的信息,就可以反向推算物体实际运动的情况,因为这ht转载 2022-02-18 15:33:26 · 309 阅读 · 0 评论 -
多相机立体标定
多相机立体标定包括两部分:1. 多块标定板的标定:使用一个相机标定出各标定板之间的空间关系;2. 多相机标定:在第一步的结果基础上,标定各相机之间的位置关系;标定板推荐:相机越多,越无法看全棋盘格标定板,可以使用AprilGrid标定板...原创 2022-02-13 20:25:39 · 2791 阅读 · 0 评论 -
6轴和9轴的IMU姿态估计
传感器分析原创 2022-02-13 20:00:34 · 1367 阅读 · 0 评论 -
IMU/电子罗盘/轮式编码器的多传感器融合(非线性卡尔曼滤波)
传感器分析电子罗盘对于平面运动机器人而言,只需要xy平面上的数据即可求出来绝对角度,这里电子罗盘需要做椭圆->圆的传感器标定原创 2022-02-13 19:48:01 · 1625 阅读 · 0 评论 -
IMU/光电鼠标/轮式编码器的多传感器融合(非线性卡尔曼滤波)
各传感器分析imu对于平面移动机器人(如扫地机器人),IMU只需要一般只需要使用陀螺仪的偏航角(YAW),陀螺仪的偏航角有时间漂移的误差存在,一般分为系统漂移误差(offset)和随机时间漂移误差。轮式编码器没啥好说的,两轮差分机器人有对应的运动模型,累计误差随着打滑等因素逐步变大。需要把轮径和两轮中心距标定出来,标定的方法比较多(todo:更新三种标定方法)。光电鼠标传感器可以测出来xy偏移量的,放在机器人不同的位置和放法是有讲究的。卡尔曼融合滤波预测模型模型就是两轮差原创 2022-02-13 19:42:32 · 1551 阅读 · 0 评论 -
扫地机光流传感器
文献:一种基于光流传感器的移动机器人定位方法基于光流模块的移动机器人运动学_RobotLife的博客-优快云博客实际扫地机上使用的光流传感器的数据每次都是在其局部坐标系上的,光电鼠标是在光流传感器的基础上做了进一步处理。文献中基本上都使用陀螺仪提供方向的方式利用光流传感器数据。Dead_Reckoning_for_Mobile_Robots_Using_Two_Optical这边文章使用两个光流传感器,能够得到角度,单个光流传感器也能得到角度,但角度不好用;...原创 2022-01-06 20:13:38 · 2739 阅读 · 0 评论 -
轮式里程计+视觉紧耦合方案
基于ORB_SLAM:GitHub - izhengfan/se2lam: (ICRA 2019) Visual-Odometric On-SE(2) Localization and Mapping基于VINS:GitHub - TouchDeeper/VIW-Fusion: Visual-inertial-wheel fusion odometry, better performance in scenes with drastic changes in light基于M.原创 2021-12-29 16:35:34 · 2883 阅读 · 1 评论 -
鼠标式光流传感器与多传感器融合
光流传感器用于流体的测量,我接触到的应用主要是用于无人机的定高悬停、无人机和扫地机平面位置获取。数据集:算法流程:低通滤波->与陀螺仪滤波反馈->微分->低通滤波->尺度恢复参考资料如何处理光流传感器的数据实现稳定的定点悬停 - 灰信网(软件开发博客聚合)...原创 2021-10-25 12:01:42 · 596 阅读 · 0 评论 -
IMU和轮式里程计的robot_pose_ekf融合
数据开发包test提供的数据:Imu发布频率50hz; Odom发布频率30Hz自己的数据Imu的frame_id: imu_world, 发布频率200Hz;Odom的frame_id: odom, child_frame_id: base_link, 发布频率30Hz融合通过发布静态坐标系建立的整体坐标系关系为:odom_combined->base_footprint->base_link->imu_world实际操作时报错,且动态坐标..原创 2021-10-16 13:05:32 · 5595 阅读 · 3 评论