
adversarial example
007_rbq
007rbq
展开
-
物理世界中的对抗样本
正如在数字空间中存在对抗样本,研究者发现在物理世界中也存在对抗样本,研究人员将对抗性补丁打印出来挂在人的身前,就能让目标检测算法YOLOv2失效。源代码链接:https://gitlab.com/EAVISE/adversarial-yolo。test_patch.py文件用来测试跑出来的patch的攻击性怎么样。- proper_patched: 在图像上添加扰动, 并保存检测结果。patch的config文件patch_config.py。真正核心的文件是train_patch.py文件。原创 2023-05-01 00:00:00 · 726 阅读 · 1 评论 -
deepfool攻击pytorch代码
目前,没有有效率的方法可以用来精确的计算深度模型对对抗扰动的鲁棒性。在这篇论文中,提出了DeepFool的算法来生成扰动,并且提出了一种量化分类器鲁棒性的方法。FGSM虽然快,但是它只是提供了最优扰动的一个粗略的估计,它执行的梯度的方法,经常得到的是局部最优解,DeepFool能够得到更小的扰动,甚至比FGSM小一个数量级。提出了一种计算分类器对对抗扰动的鲁棒性的评价方法。上面这些代码都可以复用的所以我直接用。下面这部分是非定向攻击的代码。直接放pytorch代码吧。下面这部分是定向攻击的代码。原创 2023-04-29 04:00:00 · 863 阅读 · 0 评论 -
C&W攻击代码pytorch实现
C&W攻击是数字空间中的对抗攻击算法,下面使用到的一些函数和代码。原创 2023-04-29 07:00:00 · 1987 阅读 · 1 评论 -
【对抗样本】FGSM方法生成对抗样本
深度神经网络已经在图像识别、语音识别等方面取得优秀成果。但是深度神经网络也有它的脆弱性,在面对对抗样本的时候,会出现错误分类,今天将根据FGSM的方法生成相应的对抗样本。使用的是jupyter notebook。原创 2023-04-28 20:00:00 · 653 阅读 · 1 评论