
联邦学习
文章平均质量分 94
联邦学习论文阅读笔记
ye6
这个作者很懒,什么都没留下…
展开
-
PyramidFL: A Fine-grained Client Selection Framework for Efficient Federated Learning
联邦学习用户选择算法原创 2023-03-27 12:35:59 · 665 阅读 · 0 评论 -
Hierarchical Personalized Federated Learning for User Modeling
在第二阶段,文章提出了一种细粒度的个性化更新策略,根据局部用户模型和全局模型,将相应的组件加权融合到新的局部模型中。即服务器对从客户端接收到的组件执行差异化的组件聚合策略,公有组件直接聚合,将私有组件的draft生成全局的private component而无需对齐表征(why?此外,它还提供了不同的组件,使用基于接收到的全局模型的细粒度个性化更新策略来更新个性化的用户模型。服务器负责使用不同的组件聚合策略,通过不同的组件将异构的本地用户模型融合到全局的用户模型中。实验结果表明文章提出的方法是有效的。原创 2023-08-25 15:25:56 · 310 阅读 · 0 评论 -
FedCorr: Multi-Stage Federated Learning for Label Noise Correction
在现实世界的FL实现中,客户端数据可能有标签噪声,而不同的客户端可能有很大不同的标签噪声水平。虽然在中心式学习中存在方法来处理标签噪声,但这些方法在FL场景下中对异构标签噪声表现不佳, 这是因为FL的客户端数据集较少与数据隐私要求。在本文中提出了FedCorr,一个通用的多阶段框架来处理FL中的异构标签噪声,而无需对本地客户的噪声模型做任何假设,同时仍然可以保护客户数据隐私。原创 2023-10-11 19:59:13 · 708 阅读 · 0 评论 -
Adaptive Control of Local Updating and Model Compression for Efficient Federated Learning
在网络边缘产生的数据可以通过利用边缘计算(EC)的范式进行本地处理。在边缘计算的帮助下,联邦学习(FL)已经成为在本地分布式数据上进行分布式机器学习的一种实用和流行的方法。分布式数据上的分布式机器学习。然而,联邦学习面临着三个关键的挑战,即资源约束、系统异质性和边缘计算的上下文动态。为了解决这些挑战,我们提出了一种训练效率高的FL方法,称为FedLamp,在资源受限的EC系统中通过优化资源中的局部更新频率和模型压缩率来实现。我们从理论上分析了模型的收敛率 并得到一个与本地更新频率和模型压缩率相关的收敛上界。原创 2023-05-11 14:48:38 · 261 阅读 · 0 评论