联邦学习——基于节点梯度和全局梯度的内积进行节点选择

联邦学习——FedPNS

填上一篇的坑。
《Node Selection Toward Faster Convergence for Federated Learning on Non-IID Data》这篇论文建立在数据异构的基础上,设计了一个选择性地让节点参与模型聚合的概率模型。通过排除不利于全局收敛的节点,提高模型收敛速度和预测精度。

摘要

联邦学习(FL)是一种分布式学习范式,它允许大量资源有限的节点在没有数据共享的情况下协作训练模型。非独立的和同分布的(Non-IID)数据样本造成了全局目标和局部目标之间的差异,使得FL模型收敛缓慢。本文提出了更好的最优聚合算法,该算法通过检查局部梯度与全局梯度的关系,识别和排除不利于全局收敛地局部更新,找到每个全局回合中参与节点局部更新的最优子集。最终提出了一个概率节点选择框架(FedPNS),根据最优聚合的输出动态地改变每个节点的选择概率。FedPNS可以优先选择能够促进更快的模型收敛速度的节点参与模型聚合。从理论上分析了FedPNS比常用的FedAvg算法的具有更快的收敛速度。并通过实验证明了其有效性。

节点选择的相关策略

《Client selection for federated learning with heterogeneous resources in mobile edge》
《Convergence of update aware device scheduling for federated learning at the wireless edge》
《Scheduling for cellular federated edge learning with importance and channel awareness》
《Client selection in federated learning: Convergence analysis and power-of-choice selection strategies》
这些策略就不加以讨论了,有兴趣的话可以自己下载康康。总的来讲,这些节点选择策略都没有分析数据异质性对节点选择带来的影响。
与上述研究相比,FedPNS这一基于概率的节点选择模型建立在数据异质性观点的基础上。因为FL模型很难在Non-IID数据收敛,所以要描述节点间数据样本的分布并不容易。与随机选择相比,通过识别不同节点对模型收敛的贡献程度,有目的地选择节点更有利于加速模型收敛。

FedPNS原理

FedAvg通过随机挑选节点参与模型聚合的方式实现平均聚合,但这种方式过于简单,有些节点

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

联邦学习小白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值