对抗攻击学习——深度学习deep learning

深度学习中的对抗攻击与防御

了解对抗攻击

看b站李宏毅教授的课程,了解对抗攻击

One pixel attack、universal adversarial attack、attack in the physical world等等

“Backdoor“ in Model 对训练集中的图片进行攻击,使得模型在经过该数据集训练后,识别特定图像时会发生错误。告诫我们在我们训练模型时,谨慎挑选数据集。https://arxiv.org/abs/1804.00792

防御:被动防御:模糊化、影像压缩再解压缩、Generator,但一旦被知道极易被破解,所以要引入randomization,可这种方法也并非绝对安全。

主动防御proactive defence:对抗训练adversarial training,主动进行攻击,从而得到被误判的数据,再把这些数据重新加到训练数据中,从而达到强化模型的作用。缺点是,挡不住新的攻击方式;需要大量的训练资源

对抗攻击的常见方法

Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arxiv preprint arxiv:1412.6572 (2014). 本文为对抗学习的开山之作,实验者发现了一些机器学习模型易受到对抗样本的攻击。根据高维线性空间足以产生对

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值