深度学习---对抗样本生成

本文探讨了深度学习中的对抗样本攻击现象,介绍了对抗样本的概念及其如何通过微小干扰误导模型判断。文章列举了对抗样本可能带来的实际影响,如改变路标指示等,并对不同类型的攻击场景进行了分类说明。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对抗样本攻击:在深度学习神经网络(DNN)输入较小的干扰因素会使DNN出现误判,这种攻击被称为是对抗样本攻击
对抗样本:是指在正常样本中有目的性地添加的一些干扰因素,使得DNN出现误判
举例说明对抗样本分析带来的影响:

1、通过更改路标信息,使得车辆的DNN系统将左转识别为右转
2、在激烈的商业竞争环境下,对抗样本攻击导致恶性竞争
在这里插入图片描述

对抗样本分析分类:

1、白盒:白盒情景下攻击者对模型完全掌握,包括模型的类型、结构、所有参数及权重值;
2、黑盒可探测:攻击者对目标 模型部分了解,但能对模型进行探测或查询,如通过输入观察输出结果;
3、黑盒不可探测:攻击者对目标模 型了解有限或完全没有,构建对抗样本时不允许对目标模型进行探测查询.

实例:

在这里插入图片描述

资料分享:https://blog.youkuaiyun.com/pku_langzi/article/details/83989758
其中,需要涉及对所给文本中某些词语的重要性进行计算:

在这里插入图片描述

也可以单独计算某个词语的“贡献率”:

在这里插入图片描述

将所得到的对抗样本提取出来,并进行检测;当深度学习系统对所输入的对抗样本识别率较低的时候,说明对抗样本的干扰性越强;我们也可以借助所得到的对抗样本为深度学习系统进行安全性保障
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

聆一

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值