无人驾驶技术——无人车的感官(激光雷达,雷达,摄像机)

本文对比分析了激光雷达(LIDAR)与雷达(RADAR)的原理、优缺点及应用场景,强调了激光雷达在空间分辨率上的优势和雷达在恶劣天气下的鲁棒性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


本节学习了车载激光雷达和雷达,他们各自的作用原理和适用场景,以及优缺点对比,此文记录和分享学习笔记。

激光雷达LIDAR

什么是LIDAR

LIDAR 激光雷达,LIght Detection And Ranging,,是激光探测与测量的缩写。使用红外激光束确定传感器与附近物体之间的距离。

LIDAR原理

激光是脉冲式的,脉冲被对象物体反射,返回一个点云,来表示这些物体。激光雷达的空间分辨率远高于雷达,因为激光束越聚焦,垂直方面的扫描层数量越多,因此每层的激光雷达点的密度也越高。

激光雷达传感通过发送数千个激光信号给我们提供高分辨率的数据。这些激光从物体上反射回来,返回到传感器,然后我们可以通过计时信号返回所需的时间来确定物体的距离。此外,我们还可以通过测量返回信号的强度来了解被击中的物体。每一束激光都在红外光谱中,以许多不同的角度发出,通常在360度范围内。虽然激光雷达传感器为我们周围的世界提供了非常高精度的3D模型,但它们目前非常昂贵,一个标准单元的价格超过60000美元。

  • 激光雷达以不同的角度发射数千束激光。
  • 激光被发射,反射障碍物,然后用接收器检测。
  • 根据发射和接收激光的时间差,计算出距离。
  • 还接收到激光强度值,可用于评价激光反射物体的材料性能。

LIDAR优点

空间分辨率高

LIDAR缺点

受天气影响大。 目前的激光雷达大多使用900纳米波长的光源。也有些激光雷达使用更长波长的光源,在雨雪中表现更好。激光雷达受天气和传感器清洁程度的影响较大,因此需要保持清洁

不能直接测量物体速度。目前,激光雷达还不能直接测量对象速度,必须使用两次或者两次以上扫描之间的位置差来确定物体的速度。

体积相对较大。体积上也比其他传感器较大,所以大多装在车顶上。

Velodyne激光雷达传感器

Velodyne激光雷达传感器,从左到右配有HDL 64、HDL 32、VLP 16。传感器越大,分辨率越高。
在这里插入图片描述

在这里插入图片描述
这是HDL64激光雷达的规格。激光雷达有64层,每层从Z轴以不同的角度发出,所以倾斜角度不同。每层覆盖360度视图,角度分辨率为0.08度。激光雷达平均每秒扫描十次。激光雷达可以为汽车和树叶挑选出高达120米的物体,并能感知高达50米的路面。

HDL64每秒大约收集多少点?

HDL64每秒大约收集多少点?假设平均更新率为10Hz。

因为64层,每层覆盖360度视图,角度分辨率为0.08度,平均每秒扫描十次,
所以每秒收集的点数为 64*(360/0.08)*10 = 2,880,000‬ 个点

雷达 RADAR

RADAR,雷达,RAdio Detection And Ranging,无线电探测与测量的缩写。使用激光电波确定传感器与附近物体之间的距离

RADAR工作原理

雷达可通过多普勒效应直接测量速度。多普勒效应根据目标对象是在远离你还是在接近你,测量出雷达频率的变化。雷达波在坚硬的物体表面会发生反射,直接测量对象的距离,不在视线范围内的物体也可以直接测量出距离

RADAR优点

雷达可以生成环境的雷达地图,从而实现定位;

通过其他车辆的底部,并发现可能会遮挡的建筑物和物体;

不受雨雪雾天气影响;

视野开阔,视场角可达150度,距离可达200米.

RADAR缺点

雷达的分辨率较低,尤其是在垂直方向,分辨率很有限。分辨率低意味着来自静止物体的反射可能出现问题。

激光雷达(lidar)和雷达Radar的区别

在这里插入图片描述

快速问答

在这里插入图片描述

车载传感器

雷达:雷达系统发射无线电波,从(许多但不是全部)物体上反射出来。返回波可以根据其运行时间(给出距离)和位移频率(给出相对速度)进行分析。后一种特性明显区分了雷达和其他两种传感器类型,因为它是唯一能够直接测量物体速度的传感器。此外,雷达对大雪和浓雾等恶劣天气条件也非常有效。在巡航控制系统中使用多年,雷达在识别具有良好反射性能的较大物体时效果最好。当探测到较小或“软”物体(人、动物)反射性能降低时,雷达探测性能下降。尽管摄像机和雷达结合得很好,但在某些情况下,这两个传感器都不能以最佳方式工作——这就是Uber选择将第三个传感器投入混合的原因。

激光雷达:激光雷达的工作原理与雷达相似,但它不发射无线电波,而是使用红外线。安装在屋顶上的传感器以高速旋转,并生成其周围环境的详细三维图像。在Velodyne VLS-128的情况下,总共有128束激光用于探测300米以外的障碍物。在一次360度旋转过程中,每秒生成多达400万个数据点。与相机类似,激光雷达是一种光学传感器。然而,它具有“自带光源”的显著优势,而摄像机则依赖于环境光和车辆前照灯。然而,必须注意的是,激光雷达的性能也会在诸如雪、大雨或雾等不利环境条件下降低。再加上某些材料的低反射特性,激光雷达可能因此无法为交通中的某些物体生成足够密集的点云,只留下几个可工作的3D点。因此,最好将激光雷达与其他传感器结合起来,以确保检测性能足够高,能够在交通中自动导航。

摄像头:Ubers改装沃尔沃XC90 SUV的车队在车顶上配备了一系列摄像头,另外还配备了指向侧面和车后的摄像头。车顶摄像头可以聚焦近场和远场,观察制动车辆、行人过街、交通灯和标志。这些摄像头将其材料送入一台中央车载计算机,该计算机也接收其他传感器的信号,以创建车辆周围环境的精确图像。像人眼一样,夜间摄像系统的性能也会大大降低,这使得它们无法以所需的检测率和位置精度定位物体。这就是Uber车队配备两种附加传感器的原因。

特斯拉车载传感器

相机:前向光学阵列由四个不同焦距的相机组成。窄前视摄像头可以捕捉到前方250米处的镜头,打开角度稍大的前视摄像头可以看到前方150米处的镜头,前方60米处的广角摄像头可以捕捉到前方60米处的镜头,以及一组前视摄像头可以捕捉到车辆前方和侧面80米处的镜头。广角摄像头设计用于读取路标和交通信号灯,使汽车能够做出相应的反应。然而,这一特性能否在交通中可靠地使用还存在争议。

雷达:前视雷达可以看到前方160米处的车辆。据特斯拉创始人埃隆马斯克说,它能够看穿“沙子,雪,雾几乎任何东西”。

声纳:360°超声波声纳可探测汽车周围8米半径内的障碍物。超声波传感器可以以任何速度工作,并用于在汽车附近发现物体。超声波传感器也可以用来帮助汽车自动转换车道。然而,与其他传感器相比,它们的范围明显受限,并以大约8米的距离结束。

您可能已经注意到,特斯拉没有使用激光雷达传感器,尽管它计划在4级甚至5级自动驾驶提供激光雷达传感器。与Uber、Waymo和其他几家致力于完全自主的制造商不同,特斯拉坚信,一套高性能摄像机加上强大的雷达传感器将足以实现4/5级自主驾驶。

但必须注意的是,在所有传感器设置中,无论是Uber、Tesla、Waymo还是传统制造商(如梅赛德斯或奥迪),始终使用摄像头。尽管有一个关于雷达或激光雷达或两者结合的争论正在进行中,相机从来没有争议。

车载传感器的选择标准

距离

激光雷达和雷达系统可以探测距离从几米到200米以上的物体。许多激光雷达系统很难在非常近的距离探测物体,而雷达可以探测距离小于一米的物体,这取决于系统类型(长、中或短距离)。单摄像机无法可靠地测量到物体的公制距离——这只能通过对世界的性质(如平面路面)进行一些假设来实现。另一方面,立体摄像机可以测量距离,但只能测量到约80米的距离,其精度明显下降。

空间分辨率

空间分辨率:由于发射的红外激光波长较短,激光雷达扫描具有0.1°的空间分辨率。这样可以进行高分辨率的三维扫描,从而描述场景中的对象。另一方面,雷达不能很好地解决小特征,特别是随着距离的增加。摄像机系统的空间分辨率由光学、图像像素大小和信噪比决定。一旦小物体发出的光线扩散到图像传感器上的几个像素(模糊),小物体的细节就会丢失。此外,当几乎没有环境光照射物体时,空间分辨率会随着物体细节被成像仪噪声级的增加所叠加而增加。

黑暗中的鲁棒性

黑暗中的鲁棒性:雷达和激光雷达在黑暗中都有很好的鲁棒性,因为它们都是有源传感器。虽然激光雷达系统的白天性能非常好,但它们在夜间的性能甚至更好,因为没有可能干扰红外激光反射检测的环境阳光。另一方面,摄像头在夜间的探测能力非常低,因为它们是依赖环境光的被动传感器。尽管图像传感器的夜间性能有所提高,但在三种传感器类型中,它们的性能最低。

雨雪雾的鲁棒性

雨雪雾的鲁棒性:雷达传感器的最大优点之一是在恶劣天气条件下的性能。它们不会受到雪、大雨或空气中的任何其他障碍物(如雾或沙粒)的显著影响。作为一种光学系统,激光雷达和相机容易受到恶劣天气的影响,其性能通常会随着逆境的加剧而显著下降。

物体分类

物体分类:摄像机擅长对车辆、行人、速度标志等物体进行分类。这是相机系统的主要优势之一,人工智能的最新进展更强调了这一点。激光雷达扫描的高密度三维点云也允许一定程度的分类,尽管与相机相比,物体的多样性要小一些。雷达系统不允许有太多的目标分类。

感知二维结构

感知二维结构:摄像头系统是唯一能够解释二维信息的传感器,如速度标志、车道标志或交通灯,因为它们能够测量颜色和光强度。这是相机相对于其他传感器类型的主要优势。

测速

测速:雷达利用多普勒频移直接测量物体的速度。这是雷达传感器的主要优点之一。激光雷达只能通过连续的距离测量来近似速度,这使得它在这方面的精度降低。摄像机,即使不能测量距离,也可以通过观察图像平面上物体的位移来测量碰撞时间。此属性将在本课程稍后使用。

系统成本

系统成本:雷达系统近年来在汽车工业中得到了广泛的应用,目前的系统结构紧凑,价格合理。单镜头相机也是如此,在大多数情况下,它的价格远低于100美元。由于硬件成本的增加和市场上数量的显著减少,立体摄像机的价格更高。激光雷达在过去的几年里得到了广泛的应用,特别是在汽车行业。由于技术进步,其成本已从75000美元下降到5000美元以下。许多专家预测,激光雷达模块的成本在未来几年可能会降到500美元以下。

包装尺寸

包装尺寸:雷达和单摄像头都可以很好地集成到车辆中。立体摄像头在某些情况下体积庞大,这使得在挡风玻璃后面集成立体摄像头变得更加困难,因为立体摄像头有时会限制驾驶员的视野。激光雷达系统有各种尺寸。360°扫描激光雷达通常安装在屋顶上,因此非常明显。在不久的将来,工业向更小的固态激光雷达系统的转变将极大地缩小激光雷达传感器的系统规模。

计算要求

计算要求:激光雷达和雷达几乎不需要后端处理。虽然摄像机是一种成本效益高且容易获得的传感器,但它们需要大量的处理来从图像中提取有用的信息,这增加了整个系统的成本。

### 多模态任务处理在AI中的应用 多模态AI系统能够跨越视觉、语言与音频等多个感官通道,提供更加综合的理解能力[^1]。这种技术已经在多个应用场景中得到验证并显示出巨大的潜力。 #### 应用实例 - **智能助手与个性化交互**:借助于语音识别技术和自然语言理解模块,再加上计算机视觉的支持,使得虚拟个人助理不仅限于简单的命令执行者角色,而是成为真正意义上的对话伙伴,可以根据用户的表情变化调整交流方式,甚至主动发起话题讨论[^3]。 - **医疗健康监测**:利用可穿戴设备收集的心率、血压等生理信号加上摄像头捕捉的人体动作姿态特征作为输入源之一;再配合上病历记录文档里的文字描述信息,则可以帮助医生更精准地诊断病情发展状况,并制定个性化的治疗方案建议。 - **自动驾驶汽车环境感知**:车辆周围安装的各种传感器(如激光雷达LiDAR、毫米波雷达MMW Radar 和摄像机Camera),它们各自产生的原始观测值经过初步加工后形成结构化程度较高的中间层表征形式——即所谓的“鸟瞰图BEV (Bird Eye View)” 或 “环视图SVS(Surround View System)”。随后这些来自不同物理域的数据会被送入同一个神经网络内部完成端到端的学习过程,从而实现对复杂交通场景下潜在危险因素的有效检测预警功能[^5]。 ### 实现方法和技术细节 为了有效地处理多模态任务,通常采用以下几种关键技术: #### 数据预处理阶段 由于不同类型的感觉器官所获取的信息往往具有不同的尺度范围和分布特性,因此有必要先对其进行标准化变换操作以消除量纲差异带来的影响。例如对于图像来说可能需要做归一化处理使其像素强度值落在0~1之间;而对于声音片段则要计算梅尔频谱系数Mel-Spectrogram来提取其中蕴含的时间频率模式特点。 ```python import librosa from sklearn.preprocessing import MinMaxScaler def preprocess_audio(audio_path): y, sr = librosa.load(audio_path) mel_spectrogram = librosa.feature.melspectrogram(y=y, sr=sr) scaler = MinMaxScaler() scaled_mel_spec = scaler.fit_transform(mel_spectrogram) return scaled_mel_spec ``` #### 特征抽取环节 这里会涉及到专门设计好的编码器架构用于捕获每种单一媒体类型内的局部依赖关系以及全局上下文语义关联性。比如卷积神经网CNN(Convolutional Neural Network)擅长挖掘二维空间布局规律适用于图片分类问题求解;而长短时记忆单元LSTM(Long Short-Term Memory Unit)/门控循环单元GRU(Gated Recurrent Unit)更适合用来解析序列型时间序列数据集中的长期历史趋势演变轨迹[^4]。 ```python import torch.nn as nn class AudioEncoder(nn.Module): def __init__(self, input_dim=128, hidden_dim=64, num_layers=2): super(AudioEncoder, self).__init__() self.lstm = nn.LSTM(input_size=input_dim, hidden_size=hidden_dim, num_layers=num_layers, batch_first=True) def forward(self, x): out, _ = self.lstm(x) return out[:, -1, :] ``` #### 跨模态融合策略 当各个独立分支已经分别完成了各自的初级抽象表达之后,下一步就是考虑怎样把这些异构向量组合起来构成更高层次上的联合表示了。常见的做法有早期拼接Early Fusion、晚期加权Late Weighting还有中期注意力机制Mid Attention三种模式可供选择取决于实际需求偏好。 ```python import torch def early_fusion(image_features, audio_features): combined_features = torch.cat((image_features, audio_features), dim=-1) return combined_features ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值