
随着采用对抗性机器学习(Adversarial Machine Learning, AML)的AI系统融入关键基础设施、医疗健康和自动驾驶技术领域,一场无声的攻防战正在上演——防御方不断强化模型,而攻击者则持续挖掘漏洞。2025年,对抗性机器学习领域在攻击手段、防御框架和监管应对等方面均出现突破性发展,使其同时成为威胁载体和防御策略。
威胁态势演进
对抗性攻击通过精心设计的输入数据操纵AI系统,这些输入对人类而言看似正常,却会导致模型误判。最新研究揭示了令人担忧的攻击能力:
-
动态物理攻击:研究人员在车载屏幕上展示移动的对抗性补丁,成功欺骗自动驾驶系统的物体识别功能。实际测试中,这些动态干扰使78%的关键交通标志被错误识别,可能改变车辆导航决策。这标志着攻击方式从静态数字攻击转向可适应物理环境的新型攻击。
-
训练数据投毒:2024年出现的Nightshade AI工具本用于保护艺术家版权,却被恶意用于污染扩散模型的训练数据。攻击者可微妙改变训练数据的像素分布,使文生图模型的准确率下降41%。
-
生成式攻击激增:攻击者利用生成对抗网络(GANs, Generative Adversarial Networks)制造可绕过欺诈检测系统的合成数据。金融机构报告显示,自2023年以来,AI生成的虚假交易模式数量激增230%。
2025年3月,美国国家标准与技术研究院(NIST)指南指出针对第三方机器学习组件的新攻击媒介。某次事件中,一个被植入后门的开源视觉模型上传至PyPI仓库,在被发现前已传播至14,000多个下游应用。这类供应链攻击利用了

最低0.47元/天 解锁文章
135

被折叠的 条评论
为什么被折叠?



