- 博客(12)
- 资源 (1)
- 收藏
- 关注
原创 论文学习---Learned Inertial Odometry for Autonomous Drone Racing
深度学习网络估计IMU的位移,用于EKF更新。IMO
2022-12-02 19:28:34
751
原创 基于深度学习的SLAM概述
目的本博客总结最近看的几篇关于深度学习的SLAM以及基于深度学习的稠密重建,简要对比记录特点对比年份名称类型框图前端输出地图方法特点回环2021DROID-SLAMmono-VSLAM全图像素点+稠密光流匹配输出每个关键帧的位姿和稠密深度图像全局场景稠密点云地图RAFT稠密光流+稠密BA+重投影误差GPU显存占用较大(前端实时需要8GGPU显存,后端由于需要存储所有图像的featuremap,因此,显存占用会很大,5000帧需要24GB),位姿和全局
2022-01-14 11:07:53
4276
3
原创 实操 ----Mocap采集VIO数据集
目的本文介绍采用Mocap采集VIO数据集的流程以及相关标定处理过程。参考论文:The TUM VI Benchmark for Evaluating Visual-Inertial Odometry参考代码:https://gitlab.com/VladyslavUsenko/basalt简介VIO数据集包含轨迹真值,可以通过轨迹对齐的方式,求解绝对误差ATE,相对误差APE来评估VIO系统的误差。轨迹对齐有两种方式:相似变换,手眼标定。相似变换通常公开数据集里面的真值已经做了坐标系转换,
2022-01-06 15:22:02
1145
原创 论文学习---The TUM VI Benchmark for Evaluating Visual-Inertial Odometry
目的参考论文:The TUM VI Benchmark for Evaluating Visual-Inertial Odometry本文介绍用Mocap系统来采集VIO数据集过程中的相关标定过程。传感器如下图所示,采集设备包含双目RGB相机+IMU。IMU和两个相机刚性连接,几个红外小球可以被MoCap系统进行运动跟踪。为了标定传感器之间的内参和外参,需要采用AprilTag板。其中,AprilTag板和MoCap参考世界坐标系之间的相对位姿固定。左图显示了所有涉及到的坐标系。相机全局曝光
2022-01-06 09:27:46
484
原创 仿真数据生成工具以及现有的仿真数据集
现有仿真数据集TartanAirTartanAir 是一个用AirSim生成的仿真SLAM数据集,可以用于视觉SLAM。数据集提供:双目 RGB 图像,深度图像,分割,光流,相机位姿和 LiDAR 点云。论文:TartanAir: A Dataset to Push the Limits of Visual SLAM数据集地址:https://theairlab.org/tartanair-dataset/数据集生成方式:仿真数据采集工具Flightmare基于Unity构建仿真场景,同
2021-11-26 18:00:21
6864
原创 仿真器采集无人机仿真数据
仿真器采集无人机仿真数据简介本文介绍如何在仿真环境中获取无人机采集的仿真数据。包括双目RGB图像,深度图像,全局场景点云。步骤
2021-11-26 15:21:33
1442
原创 论文学习--Learning High-Speed Flight in the Wild
文章目录Git代码运行编译环境编译步骤运行代码结构论文阅读GitGit: https://github.com/uzh-rpg/agile_autonomy论文: Learning High-Speed Flight in the Wild代码运行编译环境Ubuntu18.04 + gcc6 + cuda11.3 + ROS melodic + anaconda3(conda 4.10.1) + python3.8 + open3d v0.10.0编译步骤参考git源码的Readme.md
2021-11-17 18:09:22
7860
123
原创 OV2SLAM vs ORBSLAM2
框图各个模块算法 OV2SLAM ORBSLAM2 对比 特征点提取与匹配 Fast + LK光流 Fast + ORB 描述子 LK光流速度快 输出的实时pose PnP Motion-only BA Motion-only BA精度高一点 三角化 单目:关键帧特征点三角化 双目:光流匹配左帧,右目新检测的点可以进行Temporal三角化 单目:关键帧特征点三角化 双目:描
2021-11-08 11:45:34
1274
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人