13、自动驾驶车辆系统中的对抗攻击与防御

自动驾驶车辆系统中的对抗攻击与防御

1. 引言

自动驾驶车辆的发展与机器学习和人工智能紧密相连,尤其是深度神经网络(DNN)已深度融入现有的自动驾驶系统。在非安全关键型应用中,机器学习系统偶尔的错误输出或许影响不大,但在自动驾驶这类安全关键型应用中,错误输出可能导致灾难性后果,如生命和财产损失。

例如,高端汽车通常配备抬头显示,可显示限速和各种交通信号。若攻击者在限速 60 的标志上贴上对抗性补丁,使车内的 DNN 将其误分类为停车标志,而驾驶员未留意交通信号,可能会听从车辆指示停车,从而引发危险碰撞。在完全自动驾驶汽车中,这种情况更为严重,汽车可能会在未警告驾驶员的情况下自行停车。

DNN 最初并非以正确性和安全性为主要设计目标,这导致其在安全关键型应用中存在不足。长期以来,神经网络研究主要致力于提高各种数据集的分类准确率,从早期的 MNIST 数据集,到后来更复杂的 CIFAR - 10 和 ImageNet 数据集。尽管当前的 SOTA DNN 在 ILSVRC 竞赛中表现出色,分类准确率超过人类,但它们在处理图像的机制与人类不同,缺乏对场景和上下文的理解能力。

大约在 2013 - 2014 年,研究发现 DNN 在不可察觉的噪声下容易崩溃,对所谓的“对抗性示例”缺乏鲁棒性。对抗性示例是指在正确分类输入附近存在的误分类实例,且所有 DNN 架构都容易受到此类攻击。因此,设计既具有高准确率又能抵御对抗性示例的 DNN 一直未能成功。由于自动驾驶系统的未来依赖于 DNN 的发展,对抗性示例问题亟待解决。

对抗攻击大致可分为白盒攻击和黑盒攻击:
- 白盒攻击 :攻击者了解 DNN 的架构和权

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值