- 博客(14)
- 收藏
- 关注
原创 Livox雷达启动
为以太网接口分配ip地址:sudo ip addr add 192.168.1.50/24 dev enp4s0。驱动已经将 Livox-SDK 包含在其中,或者通过 ROS 2 的依赖管理解决了 SDK 的需求。确保Livox的点云话题/livox/lidar 正在发布。Livox雷达默认的IP地址为192.168.1.151。找到雷达的接口,例如enp4s0: ip addr。启动RViz,并加载Livox提供的预配置文件。(2)启动Livox ROS2 驱动。(2)配置电脑的以太网接口。
2025-04-05 20:22:40
175
原创 4.1学习日记
使用ros2 topic echo 查看消息结构。话题重映射(remap)来更改话题名。3.可以查看检测话题是否有输出。2.用yolov5来检测。话题名字,参数,全搞定。1.节点发布图像数据。
2025-04-03 18:46:18
104
原创 win11+Ubuntu22.04 远程控制 anydesk
试过一些远程控制软件之后,针对windows和linux远程的需求,anydesk可以很好解决,且免费、延时性低。
2025-03-28 14:57:54
131
原创 C++八股 学习笔记
对于局部常量,存放在栈区;对于全局常量,编译期⼀般不分配内存,放在符号表中以提⾼访问效率;字⾯值常量,⽐如字符串,放在常量区。
2025-03-07 12:17:06
329
原创 多传感器融合:激光雷达+摄像头(二)
激光雷达作为一种可以直接并且精确获取3D信息的传感器,它与视觉的融合在多传感器感知系统中是非常重要的一环。后融合(决策层融合)和前融合(特征层融合)。当然有的时候也会是二者的结合。后融合主要是基于一些传统的方法,比如多目标跟踪,卡尔曼滤波状态估计等,另外也有一些基于机器学习模型的方法。后融合方法基本上不会区分具体融合的是什么传感器,因为融合的输入是各个传感器的感知结果。不管是什么传感器,感知结果的形式都是类似的(最常见的就是目标框,而融合的核心则在于如何关联来自不同传感器的感知结果。
2025-03-06 17:07:44
375
原创 多传感器融合:激光雷达+摄像头(一)学习笔记
自动驾驶感知技术所采用的传感器主要包括摄像头、激光雷达和毫米波雷达,如何高效的融合多种传感器数据,成为了感知算法研究的热点之一。本篇文章介绍如何在感知任务中融合激光雷达和摄像头,重点是目前主流的基于深度学习的融合算法。摄像头产生的数据是2D图像,对于物体的形状和类别的感知精度较高。深度学习技术的成功起源于计算机视觉任务,很多成功的算法也是基于对图像数据的处理,因此目前基于图像的感知技术已经相对成熟。图像数据的缺点在于受外界光照条件的影响较大,很难适用于所有的天气条件。
2025-03-06 16:38:34
840
原创 自动驾驶中的环境感知 学习笔记
自动驾驶系统包含感知,决策和控制这三个主要模块。进一步来说,感知系统又包含了环境感知和车辆定位两个任务。环境感知利用各种传感器(摄像头、激光雷达、毫米波雷达等)检测各种移动和静止的障碍物(车辆、行人、建筑物等),以及收集道路上的各种信息。车辆定位则根据环境感知得到的信息来确定车辆在环境中所处位置,这里需要高精度地图,以及惯性导航(IMU)和全球定位系统(GPS)的辅助。对于环境感知系统,主要会用到摄像头、激光雷达和毫米波雷达这三种主要的传感器以及他们的融合。摄像头。
2025-03-05 20:55:06
866
原创 SuperGlue实现图像和点云匹配 Livox_Camera_Lidar_Calibration 与 Direct_Visual_Lidar_Calibration 的区别
SuperGlue是一个基于深度学习的特征匹配网络,用于在两幅图像之间找到对应的关键点,并计算它们之间的匹配关系。与传统的基于局部特征(如SIFT、ORB等)匹配方法不同,SuperGlue通过学习图像特征的匹配关系,能够在复杂的情况下(如旋转、尺度变化、光照变化、遮挡等)表现出更好的鲁棒性和准确性。
2025-02-21 10:20:16
286
原创 Ubuntu22.04 ros2_humble 单目相机标定 及 ros2如何使用usb_cam
利用ros的image_pipeline软件包实现对相机的标定。进入工作目录下载image_pipeline 【报错】: 通常是由于网络连接问题,尤其是从 GitHub 克隆大型仓库时,可能会遇到网络不稳定或连接中断的情况。【解决】: 默认情况下,Git 对 HTTP 请求的缓冲区大小有限制,你可以尝试增加缓冲区大小来解决此问题 这会将缓冲区大小增加到 500MB,可能有助于解决因缓冲区不足导致的问题。然后再次尝试克隆仓库:编译软件包,添加环境变量 :2.相机标定启动相机节
2025-02-17 21:09:24
598
原创 Livox Avia的一些参数
扫描方式:平面激光扫描激光束数量:48条激光束(垂直扫描)视场角:水平视场角(FoV):360°(全景扫描)垂直视场角(FoV):16°扫描频率:20Hz 即每秒钟进行20次扫描,每秒钟能获取20帧点云数据。
2025-02-16 19:07:37
243
原创 [ROS2雷达相机联合标定]direct_visual_lidar_calibration
这个标定包是不依赖任何物理标定板或者标定目标,来进行激光雷达和相机的联合标定,通常,LiDAR和相机的标定需要使用一些已知尺寸、固定形状的标定板(例如棋盘格、圆形标定板等),这些物体在标定过程中作为“目标”,通过图像或激光点云中的特征点来进行坐标系的对齐和转换。但"无目标"方法并不依赖这些标定板或物理目标,而是通过其他方式(如自然场景中的几何关系、已知的运动模式、结构光等)来实现标定。基础环境:Ubuntu22.04 ros2硬件设备:非重复扫描固态激光雷达livox_avia + usb相机。
2025-02-15 18:30:25
465
原创 《代码随想录》学习笔记
再说左闭右开,首先边界条件变为while(left < right),因为left==right没有意义,其次要注意right的初值,因为是右开,所以考虑到数组只有一个元素的情况下,初值设为nums.size()即可。最后注意当nums[mid] > target 时,right = mid,因为开区间导致下一个查询区间不回去寻找nums[mid]思路:区间的定义有两种,左闭右闭或者左闭右开。先说左闭右闭,此时判断条件一定是while(left
2025-01-08 15:01:45
248
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人