Apollo感知二——感知类型与算法

本文深入探讨了智能驾驶中的感知技术,涵盖了定位、预测、规划和控制等关键环节。详细介绍了传感器选择、安装与标定的过程,以及Lidar、视觉、CNN、红绿灯、雷达和超声波等感知算法的应用。同时,展望了感知技术的未来趋势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 定位:Where we are
  • 感知:What we see
  • 预测:How the environment will change
  • 规划:How we move
  • 控制:How to control the car

目录

感知概貌

传感器和标定

传感器的选择

传感器安装

传感器标定  

感知算法

Lidar感知

视觉感知

CNN检测

CNN分割

后处理计算

红绿灯

雷达感知

超声波感知

感知中的机器学习

感知的未来


感知概貌

感知是机器人学科的问题

是机器人向人学习的一个过程。

       

多个维度看感知的问题

传感器维度,目标维度,算法维度等等

                  

传感器和标定

传感器的选择

         

传感器安装

传感器安装要考虑覆盖范围,遮挡情况,和不同传感器后期融合处理等。

        

传感器标定  

主要基于标定间的lidar-camera标定

标定,主要是指使用标准的计量仪器对所使用仪器的准确度(精度)进行检测是否符合标准,一般大多用于精密度较高的仪器 。标定也可以认为是校准。在无人车中是未来标定不同传感器的位置,使得不同传感器获得的信息在融合时更好的计算。

                  

Apollo标定是在标定间进行的,在标定间内,有camera相关的标定和lidar相关的标定

感知算法

                                                      

Lidar感知

lidar感知主要用于感知障碍物,进而对其进行检测

包括启发式算法NCut和深度学习算法CNNSeg

  

启发式算法需要先构建graph,然后对graph分割成cluster,一个cluster是一个障碍物。

    

深度学习方法是数据驱动的方法 

    

Front view是将车辆的四周环境都投到向前视角,看作一个长矩阵

Bird view是从上向下看的视角,对点云数据的处理

正如faster RCNN的处理方法,对数据提取特征后,在RPN网络中获得大量的proposal区域,进而判断每个区域中物体的类别和位置。在此之前需要使用MV3D来对Lidarcamera数据进行融合。

点云数据在KITTI数据中较少,许多场景还需自己采集数据

       

视觉感知

          

CNN检测

相关算法,Faster RCNN、FCN、FPN、yolo、SSD等

                 

CNN分割

Apollo有自己的ApolloScape分割数据集

分割内容包括点云的分割图像的分割

对于一些物体,使用分割的方法比检测方法更好的获取信息。

对于车道线,分割的方法可以使用检测车道线点后连成线代替

后处理计算

                  

红绿灯

       

        

     

雷达感知

可以很好的感知高速公路的栅栏

        

超声波感知

          

感知中的机器学习

                 

感知的未来

                

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值