
AI安全
文章平均质量分 92
对抗样本,后门攻击
wwweiyx
这个作者很懒,什么都没留下…
展开
-
Towards Class-Oriented Poisoning Attacks Against Neural Networks 论文笔记
Towards Class-Oriented Poisoning Attacks Against Neural Networks 论文笔记原创 2022-11-22 16:01:18 · 607 阅读 · 0 评论 -
CLPA: Clean-Label Poisoning Availability Attacks Using Generative Adversarial Nets 论文阅读
论文笔记#原创 2022-11-22 15:56:17 · 654 阅读 · 1 评论 -
NARCISSUS: A Practical Clean-Label Backdoor Attack with Limited Information 论文笔记
论文笔记#原创 2022-11-22 15:37:45 · 1232 阅读 · 1 评论 -
Clean-label Backdoor Attack against Deep Hashing based Retrieval论文笔记
Clean-label Backdoor Attack against Deep Hashing based Retrieval原创 2022-11-22 15:31:42 · 901 阅读 · 0 评论 -
clean-label backdoor attacks 论文笔记
这篇文章是最早做干净标签下的后门攻击的文章。作者在 BadNets 上进行了一系列的实验证明在以往的方法中直接使用 clean-label 会导致攻击的失败。为了实现在 clean-label 下的攻击,作者使用了 GAN-based interpolation 和 adversarial p-bounded perturbations 来增加分类器的训练难度,让分类器学习到更多 backdoor 的信息。原创 2022-11-22 15:23:46 · 4604 阅读 · 1 评论 -
Data-Efficient Backdoor 论文笔记
论文笔记#原创 2022-11-22 15:01:55 · 495 阅读 · 1 评论 -
Proactive Privacy-preserving Learning for Retrieval 论文笔记
这里的训练过程是一种对抗性训练方式,the generator is updated to enlarge the gap between the adversarial data and the original data,the surrogate model is trained with the opposing objective that is to maintain the search performance.对抗性训练的过程运用到了 Gradient Reversal Layer。原创 2022-11-22 14:56:22 · 474 阅读 · 1 评论 -
LIRA: Learnable, Imperceptible and Robust Backdoor Attacks 论文笔记
本文提出了一种新的攻击框架 LIRA,该框架可以学习一种隐形的后门以及带有该后门的优化器。本文将后门的学习过程视为一个非凸约束优化问题,通过交替优化的方同时训练后门注入函数TTT以及带有后门的分类器fff。之前的文章的 backdoor trigger 在视觉上有了改进,但是仍能被检测到。可以由上图看出,本文方法生成的 trigger 更加隐蔽。将攻击问题视为约束优化的问题,并且采用了交替优化的方式去解决。先前的文章是先训练 transformation function T,再训练f。原创 2022-11-22 14:50:39 · 1279 阅读 · 1 评论 -
Compression-Resistant Backdoor Attack against Deep Neural Networks 论文笔记
将数据集分成3份(Clean data, Backdoor data, Compressed backdoor data)目的就是为了,最小化 backdoor 特征和 compressed backdoor 特征之间的距离,来实现鲁棒性。本文考虑了带有后门的特征和经过压缩后门特征之间的关系,来实现后门的鲁棒性。增强鲁棒性可以考虑这种做法。使用 Backdoor data 和 Compressed backdoor data 更新模型参数。文中未提及威胁模型,不过根据文章的做法攻击者需要参与整个训练过程。原创 2022-11-22 14:17:48 · 325 阅读 · 0 评论 -
频域中的后门攻击论文笔记
后门频域攻击原创 2022-11-22 14:14:51 · 1003 阅读 · 1 评论 -
Poison Ink: Robust and Invisible Backdoor Attack 论文笔记
Poison Ink: Robust and Invisible Backdoor Attack 论文笔记原创 2022-11-21 17:31:26 · 799 阅读 · 2 评论 -
Imperceptible Backdoor Attack: From Input Space to Feature Representation 笔记
Imperceptible Backdoor Attack: From Input Space to Feature Representation 笔记原创 2022-11-21 17:22:09 · 463 阅读 · 0 评论 -
Invisible Backdoor Attack with Sample-Specific Triggers 论文笔记
Invisible Backdoor Attack with Sample-Specific Triggers 笔记原创 2022-11-21 17:05:10 · 733 阅读 · 1 评论 -
Blind Backdoors in Deep Learning Models 论文笔记
Blind Backdoors in Deep Learning Models 论文笔记原创 2022-11-21 16:30:03 · 1155 阅读 · 1 评论 -
BadEncoder: Backdoor Attacks to Pre-trained Encoders in Self-Supervised Learning 论文笔记
这篇文章是首个针对与训练模型的后门攻击文章。BadEncoder 通过攻击自监督的预训练模型,将后门注入预训练编码器 encoder 中,同时导致下游的模型也继承后门属性。effectiveness goal: 基于 backdoor image encoder 训练的下游分类器,都应该继承了预训练模型的后门。即下游分类器遇上带有 trigger 的样本,也应该将其预测为 target 类。原创 2022-11-21 16:04:47 · 1113 阅读 · 1 评论 -
NAG: Network for Adversary Generation 笔记
NAG: Network for Adversary Generation 对抗样本本文提出训练生成网络生成 UAP。因为无法得知 UAP 的真实分布,所以作者设置了一个特别的生成网络结构,通过优化 Fooling Objective 和 Diversity Objective 来使得生成器能够产生一系列的 UAP。以前的工作 通常使用优化的方法在数据集上生成一个 UAP,但是先前的文章证明了对抗扰动存在于一个大的连续的区域,而不是分散在空间中。所以本文试图通过生成模型去捕获这些未知的对抗扰动的分布。模型原创 2022-06-30 21:47:39 · 520 阅读 · 0 评论 -
Robust Deep Supervised Hashing for Image Retrieval 笔记
Robust Deep Supervised Hashing for Image Retrieval 笔记文章目录Robust Deep Supervised Hashing for Image Retrieval 笔记1)关于图像哈希的一些介绍相似图片搜索2) 常见的哈希算法一些常见的哈希算法RDSH3) 文中方法介绍问题的数学定义方法模型1.输入模块2.神经网络模块3.损失函数模块quantization lossLogistic Regression Pairwise LossRobust Pa原创 2021-03-13 22:43:05 · 262 阅读 · 2 评论 -
TRAINING DEEP NEURAL-NETWORKS BASED ON UNRELIABLE LABELS 论文笔记
TRAINING DEEP NEURAL-NETWORKS BASED ON UNRELIABLE LABELS 论文笔记论文摘要本文解决的问题是如何使用不可靠的标签进行神经网络的训练。作者通过假设一个噪声层,通过真实标签加上一个参数未知的噪声信道产生观察到的标签。提出了一种学习神经网络参数和噪声分布的方法。将这种方法和忽略了错误标签的标准的反向传播神经网络训练进行比较。在几个标准的分类任务中展示了该方法对性能的改进。证明了该方法有提升,即使标签是手动设置的正确标签,也能得到提升。TRA原创 2021-03-13 22:27:44 · 257 阅读 · 0 评论 -
Symmetric Cross Entropy for Robust Learning with Noisy Labels 笔记
SCE笔记《Symmetric Cross Entropy for Robust Learning with Noisy Labels》文章目录SCE笔记存在的问题提出的方法Cross Entropy的局限性SCE的具体做法定义鲁棒性分析梯度分析RCE和MAE实验实验准备实验验证实验设置:类标签的学习预测置信度和分布可视化参数分析消融实验效果对比存在的问题作者通过对DNN训练过程的进一步分析,发现使用CCE损失函数是class-biased的class-biased: 训练数据中存在着不同的类别原创 2021-03-13 22:24:51 · 2639 阅读 · 0 评论