了解对抗攻击
看b站李宏毅教授的课程,了解对抗攻击
One pixel attack、universal adversarial attack、attack in the physical world等等
“Backdoor“ in Model 对训练集中的图片进行攻击,使得模型在经过该数据集训练后,识别特定图像时会发生错误。告诫我们在我们训练模型时,谨慎挑选数据集。https://arxiv.org/abs/1804.00792
防御:被动防御:模糊化、影像压缩再解压缩、Generator,但一旦被知道极易被破解,所以要引入randomization,可这种方法也并非绝对安全。
主动防御proactive defence:对抗训练adversarial training,主动进行攻击,从而得到被误判的数据,再把这些数据重新加到训练数据中,从而达到强化模型的作用。缺点是,挡不住新的攻击方式;需要大量的训练资源
对抗攻击的常见方法
Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arxiv preprint arxiv:1412.6572 (2014). 本文为对抗学习的开山之作,实验者发现了一些机器学习模型易受到对抗样本的攻击。根据高维线性空间足以产生对
深度学习中的对抗攻击与防御

最低0.47元/天 解锁文章
4822

被折叠的 条评论
为什么被折叠?



