论文笔记 - Can You Really Backdoor Federated Learning?

这篇论文探讨了联邦学习中的后门攻击策略和防御方法。恶意客户端通过放大模型更新或约束更新范数来植入后门,同时研究了防御策略如模型更新裁剪和添加弱噪声。实验表明,固定轮次的攻击比随机选取客户端更有效,而增加后门任务数量和增大模型更新裁剪范围会提升攻击效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

联邦学习后门攻击操作细节 - Can You Really Backdoor Federated Learning?

1. 基本信息

论文标题 Can You Really Backdoor Federated Learning?
论文作者 Ziteng Sun, Peter Kairouz, Ananda Theertha Suresh, H. Brendan McMahan
科研机构 Cornell University, Google
发表会议 NeurIPS 2019
摘要概述 本篇论文重在讨论影响联邦学习后门攻击的相关因素,比如:攻击的频率/每一轮恶意客户端参与联邦训练的个数/后门任务的数量/中心服务器是否采用梯度裁剪或者弱差分隐私的方法,并设计了实验进行比较。
开源代码 被删除了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值