《Backdoor Learning: A Survey》阅读笔记

本文详细探讨了后门攻击在深度学习中的各种形式,包括中毒式和非中毒式攻击,如BadNets、隐形后门、物理后门等,并列举了防御策略,如预处理防御、模型重构和随机平滑等。同时,指出了未来的研究方向,如触发器设计、语义和物理后门攻击,以及更有效的防御机制。

Backdoor Learning: A Survey

后门攻击的实例

在这里插入图片描述

Definition of technical terms

Poisoning-based backdoor attacks

A.A unified Frameword of Poisoning-based attack

B.Attacks for Image and Video Recognition

1)BadNets将恶意功能编码进模型的参数中
2)Invisiable Backdoor Attacks(进一步扩展出clean-label invisible attacks)
3)Attacked with optimized Trigger
4)Physical Backdoor Attacks
5)Black-box backdoor attacks
6)Semantic Backdoor Attacks

C.Attacks for Other Tasks or Paradigms

D.Backdoor attack for good

由于没有提供具体的参考引用内容,以下是基于通用知识对CrowdGuard在联邦学习中联邦后门检测的介绍。 在联邦学习场景中,后门攻击是一种严重的安全威胁。攻击者可能会在本地模型更新中植入后门,使得在特定触发条件下模型输出恶意结果,而在正常情况下模型表现正常。 CrowdGuard是一种用于联邦学习中检测联邦后门的方法。其核心思想是基于样本的众包评估。它利用多个客户端对样本进行评估,通过分析不同客户端对样本的预测结果来检测是否存在后门。 具体来说,CrowdGuard首先会收集多个客户端对一组测试样本的预测标签。然后,通过统计分析这些预测标签的分布情况。如果存在一些样本,不同客户端对其预测结果差异非常大,且这种差异不符合正常的模型波动,那么这些样本可能是被植入后门的触发样本。 以下是一个简单的伪代码示例,展示CrowdGuard的基本流程: ```python # 假设有N个客户端,M个测试样本 N = 10 M = 100 # 存储每个客户端对每个样本的预测结果 predictions = [] for i in range(N): client_predictions = get_client_predictions(i) # 模拟获取客户端i的预测结果 predictions.append(client_predictions) # 统计每个样本的预测标签分布 label_distributions = [] for j in range(M): sample_labels = [predictions[i][j] for i in range(N)] label_distribution = get_label_distribution(sample_labels) # 统计样本j的标签分布 label_distributions.append(label_distribution) # 检测可能的后门触发样本 suspected_samples = [] for j in range(M): if is_suspected(label_distributions[j]): # 判断样本j是否可疑 suspected_samples.append(j) print("Suspected backdoor trigger samples:", suspected_samples) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值