对抗攻击survey


参考论文:Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey

对抗攻击概念

当前的深度网络极易受到对抗攻击的影响,这种攻击的形式是使人类视觉系统(几乎)无法察觉的图像的小干扰,然而却会让神经网络分类器完全改变它对图像的预测。更糟糕的是,被攻击的模型对错误预测有很高的自信心,此外,同样的图像干扰可以欺骗多种网络分类器。
攻击分类:

  • 黑盒攻击(black-box attack)和白盒攻击(white-box attack)
  • 通用扰动(universal perturbations)和特定图像攻击扰动(image-specific adversarial perturbations)
  • 目标攻击(targeted attacks)和无目标攻击(non-targeted attacks)
  • 一次到位方法(One-shot/one-step methods) 和迭代方法( iterative methods)

防御分类:

  • 修正训练&修正输入(modified training/input),修正网络(Modifying networks)和增加网络(network add-on)
  • 完全防御(complete defense)和只检测防御(detection only)
    在这里插入图片描述

攻击性能:

  • 愚弄比(fooling ratio/rate)
  • 可转移性(Transferability)
  • 扰动量(Disturbance
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值