对抗攻击
文章平均质量分 92
深研 AI Lab
CV|NLP|多模态|计算机交叉学科
顶会顶刊|论文复现|️创新实验|科研指导
计算机视觉、多模态学习、大语言模型、医学图像分析、Diffusion 模型等,带你天天读论文,做科研
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
TPAMI 2024-DiffAttack:Diffusion Models for Imperceptible and TransferableAdversarial Attack
本文提出的DiffAttack方法通过利用扩散模型的生成和判别能力,成功生成了既不可感知又具有高度转移性的对抗性样本。广泛的实验结果表明,DiffAttack在各类模型、防御方法和数据集上均表现出色,显著优于现有的对抗性攻击方法。本文的研究为对抗性攻击领域提供了新的思路和工具,并为未来的研究方向指明了方向。原创 2024-11-17 10:21:37 · 1508 阅读 · 0 评论 -
基于图像分类的对抗攻击算法研究
图像分类是计算机视觉的基础任务,旨在。随着深度学习发展,模型在大规模数据集上的表现已超越人类。然而,这一进步也引发了新的安全挑战——。对抗攻击通过向原始图像添加精心设计的微小扰动,使模型产生错误分类,严重威胁系统可用性和安全性。这种攻击可分为两类:攻击类型特点白盒攻击利用模型内部信息黑盒攻击仅依赖模型输入输出理解这些基本概念有助于我们更好地认识对抗攻击的本质及其对图像分类模型的潜在影响。对抗攻击对图像分类模型的安全性构成重大威胁,已成为深度学习研究的重要方向。原创 2024-11-16 20:39:45 · 2636 阅读 · 0 评论
分享