激光雷达数据的对抗攻击研究
在自动驾驶领域,激光雷达(LiDAR)数据的语义分割对环境感知至关重要。然而,其安全性面临着对抗攻击的威胁。本文将深入探讨激光雷达数据的对抗攻击相关内容,包括现有研究、威胁模型以及基于进化算法的无梯度对抗攻击方法。
1. 现有研究
Cao等人和Sun等人对基于激光雷达的点云分类进行了对抗机器学习研究,目标是误导系统对近距离车辆的分类,可能导致紧急停车或车辆冻结。两者最多向点云添加200个点,且都试图用最少的额外点造成错误分类。
- Cao等人的方法 :采用基于优化的方法,通过最小化对抗损失函数来寻找对抗点。该函数的形式基于所应用的机器学习算法的功能,使用Adam优化器结合全局采样来解决优化问题,以减少陷入局部最优的情况。但这种基于梯度的方法需要了解所使用的模型。
- Sun等人的方法 :将其视为黑盒问题,更接近真实场景。他们观察到激光雷达对部分遮挡或远距离车辆测量的点较少,因此从激光雷达测量中获取这些车辆的点云,并使用3D渲染器人工生成一些点云,添加到原始激光雷达测量中,发现点云分类器检测附近假车的成功率很高。
此外,还研究了对基于激光雷达的感知系统的物理世界攻击。例如,Tu等人提出了一个可以通过3D打印机物理实现的对抗示例,将该物体安装在汽车屋顶时,这辆车将完全从其他自动驾驶车辆的激光雷达感知中隐藏。
2. 威胁模型
评估系统安全风险的先进方法是安全风险评估(SRA)。在汽车领域,模块化风险评估(MoRa)用于符合ISO/SAE 21434标准。最近,还提出了针对自动驾驶的特定风险评估框架,如SARA。
超级会员免费看
订阅专栏 解锁全文
983

被折叠的 条评论
为什么被折叠?



