感知
感知概貌
-
感知技术不能产生0~1的质变,没有终极解决方案,不能进行代码逐行的code reading
-
目标
- 理解感知问题的复杂性
- 看清主要的技术路径
- 理解目前主流方法的思路
-
感知是一种机器人学科。机器会向人学习,扬长避短。
-
感知系统的机器输出依赖高精地图,不要求实时分析。输出障碍物信息(位置、类别、形状、跟踪)。输出传感器融合数据。v2x是长远目标。
感知技术模块
- 小感知:检测、(语义)分割、(属性)识别、跟踪、融合
- 大感知:标定、定位、障碍物行为预测
多维度看感知
- 传感器维度
- 输出维度:障碍物、车道线和路边界、红绿灯
- 问题空间维度:2D问题、3D问题、静态帧处理、时序处理
- 机器视觉维度:模型计算(高级)、几何计算(低级)
- 机器学习维度:深度学习(数据驱动),后处理(启发式)
- 系统维度:硬件和软件
传感器和标定
传感器
- 64线激光雷达TOF,主动式
- 难以做识别;发射存在功率限制,距离远的地方难以检测。
- 相机,被动式
- 光线影响大,精度不准;但是稠密感知,可以探测较远的地方
- 毫米波雷达,主动式
- 可以利用多普勒效应测量相对速度;噪点较多,非金属材质反射强度低
- 超声波雷达
- image-Lidar的4D数据指的是RGN颜色信息加上深度信息


标定
-
标定的核心问题
- 将不同传感器的数据再同一个坐标系里表示
- 内参:传感器自身性质
- 外参:传感器之间的相对位置和朝向(用3自由度的旋转矩阵和3自由度的平移向量表示)
- 两个要进行标定的传感器要再观测同一个物体的情况下进行标定相对位置,然后解决优化问题。可能要利用传递关系,通过C知道AB的相对位置。
- 将不同传感器的数据再同一个坐标系里表示
-
camera和camera基于标定间的标定

-
Lidar和相机基于标定间的标定
- Lidar-Rigel:ICP(Iterative Closest Point,迭代最近点)
- camera-Rige

最低0.47元/天 解锁文章

6051

被折叠的 条评论
为什么被折叠?



