作者: 19届 lz
论文:《Robust Physical-World Attacks on Deep Learning Visual Classification》
问题
最近的研究表明,最先进的深度神经网络 (DNN) 容易受到对抗性示例的攻击,这是由于输入中添加了小幅度的扰动。鉴于新兴物理系统在安全关键情况下使用 DNN,对抗性示例可能会误导这些系统并导致危险情况。因此,了解物理世界中的对抗性示例是开发弹性学习算法的重要一步。
贡献:
我们提出了一种通用攻击算法,鲁棒物理扰动(RP2),以在不同的物理条件下生成鲁棒的视觉对抗扰动。使用道路标志分类的真实案例,我们展示了使用 RP2 生成的对抗性示例在包括视点在内的各种环境条件下,与物理世界中的标准架构道路标志分类器相比,实现了高目标错误分类率。
相关工作

左图显示了停车标志上的真实涂鸦,大多数人不会认为这是可疑的。右图显示了我们应用于停车标志的物理扰动。我们设计我们的扰动来模仿涂鸦,从而“隐藏在人类的心灵中”。
RP2 管道概述。输入是目标停车标志。 RP2 从模拟物理动力学(在本例中为变化的距离和角度)的分布中采样,并使用掩码将计算的扰动投影到类似于涂鸦的形状。对手打印出产生的扰动并将它们粘贴到目标停车标志上。

该研究揭示了深度神经网络易受物理世界中的对抗性示例影响,提出了鲁棒物理扰动(RP2)算法,能够在不同环境条件下生成对DNN分类器的稳健攻击。通过模拟物理条件和使用类似涂鸦的掩码,RP2成功误导了道路标志分类器,展示了其在自动驾驶等安全关键领域的潜在风险。此外,实验还涉及了制造和评估物理对抗性样本的挑战,以及如何处理制造误差。
最低0.47元/天 解锁文章
630

被折叠的 条评论
为什么被折叠?



