
联邦学习
文章平均质量分 89
liZhnw
这个作者很懒,什么都没留下…
展开
-
(补充及更新)FLTrust: Byzantine-robust Federated Learning via Trust Bootstrapping
无原创 2022-06-06 19:31:06 · 1945 阅读 · 0 评论 -
联邦学习-论文阅读-NDSS-FLTrust: Byzantine-robust Federated Learning via Trust Bootstrapping
1、FLTrust: Byzantine-robust Federated Learning via Trust Bootstrapping1、概要拜占庭式的鲁棒联邦学习方法中没有信任的根(即不知道服务器的任务),所以在服务器看来,每个客户端都可能是恶意的。本文提出FLTrust来引导客户端进行训练。即服务提供者自己为学习任务收集一个干净的小型训练数据集(称为根数据集),并在此基础上维护一个模型(称为** **)来引导信任。在每次迭代中,服务提供原创 2022-03-21 09:11:26 · 2591 阅读 · 2 评论 -
联邦学习-论文阅读-AAAI-Game of Gradients: Mitigating Irrelevant Clients in Federated Learning
1、Game of Gradients: Mitigating Irrelevant Clients in Federated Learning(选择客户端,主要为把不相关的客户端剔除出去)1、概要中心服务器无法知道每个客户端所拥有的数据的品质如何,因此在FL设置写如果选择相关客户端的问题十分复杂。将FL建模为一个合作博弈,将从作为客户端接收到的更新以及模型在服务器验证数据集上的性能作为特征函数。并计算每个客户机的Shapley值,并使用它来评估其与服务器的学习目标的相关性。提出了一种基于Shapley原创 2022-03-17 09:30:45 · 841 阅读 · 0 评论 -
联邦学习-论文阅读-Incentive Mechanism for Reliable Federated Learning: A Joint Optimization Approach to Comb
Incentive Mechanism for Reliable Federated Learning: A Joint Optimization Approach to Combining Reputation and Contract Theory1、概要针对本地节点(worker)有意无意的恶意更新行为,找出一个公平的指标来评估本地节点的可靠性,从而选出每轮参与聚合的高质量节点。本文通过声誉作为衡量标准来评估联邦学习中节点的可靠性,以此高声誉的节点拥有高质量的数据,从而其上传的本地模型更新更加原创 2022-03-15 19:16:17 · 11673 阅读 · 3 评论