论文笔记 - Neurotoxin: Durable Backdoors in Federated Learning

论文Neurotoxin探讨了在联邦学习环境中如何创建持久的后门。研究动机源于在正常训练过程中后门效果可能被削弱。攻击模型采用策略,使恶意用户仅更新良性用户不常更新的模型参数,通过特定样本训练,维持后门在全局模型中的存在。实验结果显示,即使恶意用户退出,后门仍能长时间保留。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Neurotoxin: Durable Backdoors in Federated Learning

1. 基本信息

论文标题 Neurotoxin: Durable Backdoors in Federated Learning
论文作者 Zhengming Zhang, Ashwinee Panda, Linyue Song, Yaoqing Yang, Michael W. Mahoney, Joseph E. Gonzalez, Kannan Ramchandran, Prateek Mittal
科研机构 Southeast University, Princeton University, University of California at Berkeley
会议年份 ICML 2022
摘要概括 联邦学习的客户端本地数据不共享的性质,是联邦学习系统容易受到后门攻击的重要原因。在前人提出的联邦学习后门攻击中,当恶意用户停止上传恶意模型更新时,随着迭代轮数增强,后门触发器的作用会削弱。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值