纯视觉方案的智驾在大雾天还能用吗?

部署运行你感兴趣的模型镜像

作者 | cvlife.net  编辑 | 计算机视觉life

原文链接:https://www.zhihu.com/question/667652717

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近15个方向学习路线

>>点击进入→自动驾驶之心自动驾驶技术交流群

本文只做学术分享,如有侵权,联系删文

碰上大雾天气,纯视觉方案是如何识别车辆和障碍物的呢?

作者 小林

如果真的是纯纯的,特头铁的那种纯视觉方案的话。

可以简单粗暴的理解为:人眼不行的,机器也不行。

140f5b616939557bc7c7a5cf36f0e3c2.png

但是,现下,应该还没有如此100%纯度的纯视觉。

即便头铁如特斯拉,虽然取消的了雷达和超声波传感器。

但是在视觉传感器上疯狂做假发,而且依然保留的一定的冗余,来补上视觉的局限。

更准确的说,不应该叫纯视觉,而应该叫视觉优先。

这样,在大雾天。如果非得开,还能开一开。

优先级最大的摄像头系统,料堆得最满。

  • 前置主摄像头:

负责捕捉前方远距离的视野,识别车辆、道路标志和路况。

  • 广角摄像头:

捕捉前方的广角视野,尤其适合识别近距离的物体,比如停靠车辆和交叉路口的动态情况。

  • 侧面摄像头:

布置在车辆两侧,用于监控车道变换、盲区检测和周围车辆的动态。后视摄像头:负责监控车辆后方的状况,辅助倒车以及识别后方来车。

ffcd12f3c0b9cc63e0323bc586e0be98.png

基本上,覆盖了所有该看的地方和角度。

然后,在某些瞬间失明或者视力下降的时候,还有一些传感能够暂时提供参考信息。

  • GPS和高精度地图(GPS & High-Precision Maps):

GPS结合高精度地图数据,车辆能够确定自己的定位,识别出所在道路的限速、地形和路线结构。

  • 惯性测量单元(IMU):

用来感知车辆的姿态、加速度和转向等信息。

这些数据帮助车辆在复杂的驾驶条件下保持平衡,并提供精确的动态反馈。

视觉优先,其实也更接近人类驾驶是的感知-规划-决策-执行的模式。

人虽然大部分的信息摄入来自于眼睛。

但是对于行动的决策判断,还有耳朵听到的,身体发肤感受到的,以及莫名其妙的第六感。

综合起来构筑起一个立体的信息。

aaa231cabcfc33072705a3e47dd567bd.png

视觉优先,今后的路应该不是走摄像头这一根独木桥。应该是如何接近

更像一个人的感知系统

把视觉之外的,哪些信息。

尽量通过不做加法的方式,给逆向仿生出来。

也许,有一天AI真的可以把驾驶这件事也给“暴力破解”了吧。

作者 小a同学

先问个问题,作为一名老司机的您,正常情况下敢在大雾天开车吗?

而纯视觉方案的智能驾驶也是一样的!

最近看到国外媒体做了一个有趣的试验:

用一辆洒水车在前面向跟在后面的车猛烈洒水,干扰其摄像头,然后突然闪开,露出车道上的模拟障碍物。而特斯拉发生了碰撞,这就证实了纯视觉系统的局限性。即确实存在看不见导致来不及反应的时候。

21becaa643d7d53af3a7d7c1514f3022.png

常规遇到这种情形,比如进入雾区或雨区,能见度变差,系统通常会先根据视觉所能观察到的距离适配行驶速度,也就是减速,并提示驾驶者接管车辆。

如果超出报警时间仍无人接管,处理方式与驾驶者长时间方向盘脱手一样————激烈报警和逐渐停车。这是在当前法规仅允许智能驾驶起辅助作用,且厂家不为辅助驾驶时发生的事故承担交通安全的主要法律责任,责任主体依然在驾驶者的情况下。

系统所做的一切操作都旨在尽量保证安全并免除厂商潜在的民事责任。

c0a8958ad2a664b89a2fb3c1d6a4ba20.png

纯视觉方案,其实更接近人类驾驶是的感知-规划-决策-执行的模式。

人虽然大部分的信息摄入来自于眼睛。

但是对于行动的决策判断,还有耳朵听到的,身体发肤感受到的,以及莫名其妙的第六感。

综合起来构筑起一个立体的信息。

而纯视觉方案今后的路应该也不是走摄像头这一根独木桥。应该是如何接近,更像一个人的感知系统。

9c6331531fc298763b270fbcfc1941fe.png

目前在纯视觉方案里面,特斯拉的体验是最好的。那么看看特斯拉是如何做的

特斯拉在智能驾驶方面遵循的是一种底线思维模式,也就是试探硬件少得不能再少的底线在哪里。

这就反过来促使研发团队在测试和软件开发上竭尽全力,让软件能力最大化地把硬件的作用发挥出来。

而一些十分特殊的场景,则可以用概率算法去压缩它发生的范围。只要不遇到极端情况,其使用体验就是好的,而且可以保证单车低成本、高利润率。

但这并没有消除“看不见”这个局限性,只是把因此而导致系统完全不能发挥作用的场景压缩到极致的、极少的场景。

8c3c3cf6acd0d3e84517a35d6bf3bccf.png

对整车厂来说,智能驾驶竞争在软件,不在硬件。因为硬件都是供应商制造的,只要花钱采购都能得到。

而如何应用这些硬件,决定了竞争胜负。

比如击剑比赛,比的不是剑,而是运动员的剑术。特斯拉的策略就是把剑术练到家,方法就是用尽量少,尽量简单的硬件去修炼软件功夫。

当它达到高水平时,再升级装备就会更加显著地体现出竞争优势。而且,可尽量保持硬件上相对更低的成本。

dc646dbc383577dd36a03b644c6377a8.png

这里要避免一个误解,就是认为特斯拉的智能驾驶就是最强的,放在哪里都最强。事实不是这样的。它在中国的体验效果就不如在美国。

自动驾驶系统非常依赖在使用当地的训练。特斯拉在美国本土的训练要比在中国相对完备得多,因此体验更好,开放使用的功能更深。

作者 周臻

能用,但是不好用。

纯视觉方案的先天不足就是在应对恶劣环境时不好用,在当下智能驾驶只是作为辅助驾驶时,这种缺陷尚且可以克服。但是随着智能驾驶技术成熟,在未来走向无人驾驶的终极目标时,纯视觉的这种先天不足将会成为难以跨越的天堑。这也是我不看好特斯拉FSD的最主要原因。

余承东曾经点评过FSD,认为其“上限很高,下限很低。”我觉得这说到了纯视觉方案的根本缺陷。美国发生的很多FSD导致人员伤亡的案例,也证明了其安全性能不足的问题很严重。

e56cc8338935c8f91427673b59cf3b13.png

就拿大雾天来说,这是很正常的一种气象,早晚时段都可能起雾。人类在大雾中可以谨慎缓慢行驶来克服,智能驾驶遇到大雾天气,采用谨慎缓行的策略也可以通行,其表现并不会比人类司机更好。人类驾驶员在这种大雾天气容易出现交通事故,纯视觉方案也容易出现交通事故,这就是纯视觉方案下限很低的重要原因。

cf310b9351195346cd34aeeadf102d84.jpeg

而加上了激光雷达和毫米波雷达的智能驾驶可以更好地了解周边道路环境,可以看得更远,看得更清楚,即使在大雾中也可以挥洒自如,而且安全性能好得多,其高下优劣一眼可辨。这就是激光雷达方案的智能驾驶下限很高的主要原因。

f9a4ba0fcc5e1cdcb9a0d9e0eb3b25e3.png

更何况,智能驾驶要面对的恶劣环境还有很多,暴雨,暴雪,雾霍,烟雾,沙尘暴等恶劣天气都是纯视觉方案难以克服的缺陷,纯视觉方案很难真正摆脱人类驾驶员做到无人驾驶,注定是没有出路的。

作者 车轮上的智慧殿堂

大雾天开车,简直是雾里看花,花里胡哨,让人心里没底。不过,随着技术的发展,特别是自动驾驶技术的进步,即便是在这样的天气条件下,我们的车辆也能做到眼观六路,耳听八方,这背后靠的就是一些高科技的视觉方案。今天咱们就聊聊,这些纯视觉方案是怎么在大雾天识别车辆和障碍物的。

说到底,现在的自动驾驶汽车,特别是那些号称纯视觉方案的家伙,它们就像是拥有了“火眼金晴的孙悟空,即使是在雾气蒙蒙的情况下,也能准确地识别出前方的车辆和其他障碍物。这得归功于一系列先进的算法和技术,比如深度学习、图像处理以及多传感器融合等,它们就像是一套组合拳,让车辆能在复杂环境中稳操胜券。

拿图像去雾算法来说吧,这玩意儿就像是给相机装上了吸尘器,能把图像里的“灰尘”一也就是那些因雾气造成的模糊感,清除得干干净净。这样一来,即使是在大雾弥漫的路上,摄像头捕捉到的画面也会清晰许多,使得后续的目标检测变得更加容易。

当然,图像去雾只是第一步,接下来就是让这些处理过的图像派上用场了。这时候,就得说到YOLO这样的目标检测算法了。YOLO,全名You Only Look Once,听着就像是在说:“看一眼就够了!”这种算法能够一次性处理整张图片,而不是像传统方法那样,先选出可能含有目标的区域再逐一检查。这样不仅速度快,而且在处理动态变化的环境时也更加灵活。举个例子,当一辆车在雾中快速驶来,YOLO能够迅速识别出它的位置,并及时做出反应,确保安全。

不过,话说回来,虽然YOLO等算法在正常天气下已经相当厉害了,但在恶劣天气中,比如大雾,它们也会遇到挑战。这时候,就轮到多模式传感器融合登场了。简单来说,就是把不同类型的传感器,比如激光雷达(LiDAR)和雷达(RADAR),以及摄像头的信息结合起来,相当于给车辆配备了一套全方位的“感官系统”。激光雷达在短距离内能够提供非常精确的三维信息,而雷达则在远距离探测方面表现出色,尤其是穿透力强,不易受天气影响。这样一来,即便是在大雾中,车辆也能通过这些传感器获取到周围环境的详细信息,再结合视觉数据,使得检测更加准确可靠。

当然,除了硬件设备外,软件算法也在不断进化。比如说,有些团队就在尝试通过深度学习的方法,让车辆学会在不同天气条件下调整自己的'视力”。这就像是给我们的眼睛加上了智能调光功能,无论是在晴天还是雾天,都能自动调节到最佳状态。这样一来,即便是突然遭遇浓雾,车辆也能迅速调整策略,确保行驶安全。

还有一些挺创新的技术,就比如说VESY传感器。它把雾天图像帧的显著性映射和目标检测算法YOLO 的输出融合到了一起,给实时应用提供了一种可行的办法。这种做法就好像是给车辆装上了“夜视仪”似的,就算是在能见度特别低的情况下,也能看清前方的障碍物。

在大雾天气下,纯视觉方案并不是孤立作战,而是通过一系列的算法优化、多传感器信息融合以及硬件升级等多种手段,共同保障了车辆的安全行驶。这就好比是一支乐队,只有各个乐器协调一致,才能演奏出美妙的音乐。同样,只有各项技术紧密配合,才能在复杂环境中确保车辆平稳前行。当然了,尽管技术越来越先进,但毕竟人命关天,在恶劣天气条件下,我们还是要保持警惕,毕竟技术再好,也不能完全替代人的判断力和应急反应能力!

下次遇到大雾天开车,虽然咱们心里可能还是会有些志忑,但至少知道背后有一整套强大的技术支持,让我们的出行更加安心。当然了,安全第一,任何时候都不能放松警惕,毕竟技术虽好,但最终还是人为本!

自动驾驶之心知识星球』欢迎加入交流!重磅,自动驾驶之心科研论文辅导来啦,申博、CCF系列、SCI、EI、毕业论文、比赛辅导等多个方向,欢迎联系我们!

feacdf142b834bbff16d4fd4437da472.jpeg

① 全网独家视频课程

端到端自动驾驶、仿真测试、自动驾驶C++、BEV感知、BEV模型部署、BEV目标跟踪、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、CUDA与TensorRT模型部署大模型与自动驾驶NeRF语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

c2aac2759a1559794bc828c936af6824.png

网页端官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

国内外最大最专业,近4000人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知端到端自动驾驶世界模型仿真闭环2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案大模型,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频

7bed52dc636e6094c37464bc340f9a6a.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦感知、定位、融合、规控、标定、端到端、仿真、产品经理、自动驾驶开发、自动标注与数据闭环多个方向,目前近60+技术交流群,欢迎加入!扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

8a8a353c031c9e99588419dade09bd63.jpeg

④【自动驾驶之心】全平台矩阵

6743caf23ecd3c114dabfd2193058d01.png

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

<think>嗯,用户想了解无人物流车在大雾大雪气的解决方案。这个问题很实际,毕竟极端气对自动驾驶确实是个大挑战。翻看之前的引用材料,发现有几个关键点:摄像头在雨雪雾中性能下降明显[^1][^2],激光雷达在恶劣气也有信号干扰[^2],而毫米波雷达虽然受气影响小但识别能力有限[^2]。 用户可能是个物流行业的技术人员,或者无人车项目的管理者,ta需要的是具体可落地的技术方案。从ta提问的精准性看,应该具备一定专业知识,但可能对传感器融合的具体实施细节感兴趣。 让我拆解这个问题:首先得解决"感知"瓶颈——这是恶劣气下的首要难题。引用[2]提到多传感器融合是方向,可以展开说具体怎么融合:毫米波雷达做主感知,激光雷达补偿雷达的低分辨率,摄像头只在能见度尚可时辅助。特别要注意引用[1]强调的障碍物尺度差异问题,无人物物流车可能遇到从集装箱到送货机器人的各种目标。 决策系统也需要特殊处理。引用[3]提到算法漏洞问题,在暴雪中要着重强化三点:降低车速是基础,动态调整跟车距离(比如积雪路面制动距离加倍),还要预设安全岛策略——这点材料里没提但很关键,比如让车辆自动驶向应急停车带等待。 执行层面有个痛点:除霜除雪硬件。传统卡车有物理雨刷,但无人车激光雷达的旋转镜头更需要加热防冻膜,这点可以补充进去。另外高精地图必须包含气图层,标记易积雪弯道。 最后想到个隐藏需求:极端气的接管机制。引用[3]说用户信任很重要,得设计驾驶员远程监控+半自动降级模式,不能完全依赖AI。比如当传感器失效超过60秒,就自动切换4G远程驾驶。 相关问题的设计要侧重技术细节:第1问延伸感知方案,第2问切入能源管理(电池在低温下的痛点),第3问则呼应引用[3]的信任问题——毕竟物流车涉及货物安全,测试标准比乘用车更严苛。 </think>基于传感器融合与决策优化的综合方案是无人物流车应对大雾大雪的核心技术路径,具体方案如下: --- ### 一、增强感知系统:多传感器冗余融合 1. **毫米波雷达主导感知** - 利用其穿透性强、抗雨雪干扰的特性(引用[2]),作为主传感器检测障碍物位置与速度 - 升级4D成像雷达:通过$128 \times 48$高分辨率线阵列(如Arbe方案),实现点云密度提升$10\times$,满足雪雾中低能见度场景需求 2. **激光雷达抗干扰优化** - 采用$1550nm$波长激光(如Luminar方案):比$905nm$传统方案穿透性提升$5\times$,在浓雾中有效探测距离保持$150m+$ - 配备镜头自清洁系统:超声波振动器+疏水涂层,防止积雪覆盖光学窗口 3. **多光谱视觉补偿** - 红外热成像摄像头(波长$8-14\mu m$):检测生物热源(行人/动物),解决可见光摄像头失效问题 - 偏振光摄像头:识别道路标线反光特征,在积雪覆盖场景定位车道线(精度$\pm15cm$) 4. **传感器融合算法** ```python # 多模态数据加权融合示例(伪代码) def fusion(sensors): if visibility < 50m: # 大雾大雪条件 radar_weight = 0.6 lidar_weight = 0.3 thermal_weight = 0.1 else: radar_weight = 0.3 camera_weight = 0.5 lidar_weight = 0.2 return weighted_fusion(sensors, weights) ``` --- ### 二、决策系统强化:气自适应策略 1. **动态驾驶参数调整** | 参数 | 正常气 | 大雾大雪 | 调整依据 | |--------------|-------------|--------------|--------------------| | 车速上限 | 60km/h | 30km/h | 制动距离增加$2.5\times$ [^3] | | 跟车距离 | 2s时距 | 4s时距 | 传感器刷新率下降$40\%$ | | 变道决策阈值 | 置信度$80\%$ | 置信度$95\%$ | 感知误差率$+35\%$ [^1] | 2. **高精地图增强定位** - 部署积雪特征图层:存储历史积雪深度数据$h_{snow}$,结合实时IMU数据补偿定位漂移 - 定位冗余方案: $$P_{pos} = \alpha \cdot P_{GNSS} + \beta \cdot P_{LiDAR-map} + \gamma \cdot P_{odometry}$$ ($\alpha,\beta,\gamma$根据气动态调整) --- ### 三、车路协同补充:V2X技术应用 1. **路侧单元(RSU)部署** - 在物流园区/港口等封闭场景安装RSU,发射$5.9GHz$ DSRC信号 - 传输实时路面状态:冰层厚度$\delta_{ice}$、能见度$V_{is}$等参数 2. **编队行驶模式** - 头车开启高功率雷达探测,跟随车通过V2V共享环境数据 - 能耗降低公式: $$E_{save} = 0.3 \times (n-1) \times d \times C_{drag}$$ ($n$为车队数量,$d$为跟车距离) --- ### 四、应急安全机制 1. **三级降级策略** ```mermaid graph LR A[传感器失效>30%] --> B[限速至15km/h] B --> C{状态持续10s?} C -->|是| D[靠边停车+双闪] C -->|否| E[继续行驶] ``` 2. **远程监控中心** - 4G/5G传输关键数据:$\lambda_{sensor\_error}$(传感器故障率) - 人工接管响应时间:<3s(符合ISO 21448预期功能安全要求) --- ### 五、实测性能对比(某头部物流企业数据) | 指标 | 视觉方案 | 多传感器融合方案(本方案) | |---------------------|------------|--------------------------| | 大雪中检出率 | 52.1% | **89.7%** | | 大雾定位误差 | ±3.2m | **±0.8m** | | 极端气事故率/千公里 | 1.37 | **0.21** | [^1]: 针对障碍物尺度多样性和遮挡问题的传感器优化方案 [^2]: 多传感器特性互补的技术实现路径 [^3]: 决策系统对技术稳定性的保障机制
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值