AI对抗攻击
MYRLibra
中国科学院信息工程研究所·硕士
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
算法总结
攻击算法防御算法评价指标原创 2020-02-13 19:30:35 · 196 阅读 · 0 评论 -
AI对抗攻击
对抗样本指的是一类人为构造的样本,通过对原始的样本数据集添加特定的微小扰动,使得深度学习网络模型产生错误输出。##对抗攻击的方法构造对抗样本的过程就是对抗攻击。###对抗样本存在的原因训练所得的模型判断边界与真实决策边界不一致。###对抗样本生成方法常见方法主要有快速梯度攻击、雅克比映射攻击、深度欺骗攻击和边界攻击。###攻击场景白盒攻击:攻击者已知模型的网络结构、网络的权重参数...原创 2019-07-19 14:06:18 · 2295 阅读 · 0 评论 -
FGSM算法学习笔记
FGSM (Fast Gradient Sign Method)出处:Explaining and Harnessing adversarial examples类型:白盒攻击核心思想:沿着深度学习模型的梯度方向添加图像扰动,使损失函数增大,导致模型进行错误的分类。观点:高维空间下的线性行为足以产生对抗样本。x~=x+ηη=εsign(▽xJ(θ,x,y))\tilde{x}=x+\et...原创 2020-01-16 17:31:18 · 2073 阅读 · 0 评论
分享