【论文阅读】Exploiting Label Skews in Federated Learning with Model Concatenation

论文地址:https://doi.org/10.1609/aaai.v38i10.29063

摘要

Federated Learning (FL) has emerged as a promising solution to perform deep learning on different data owners without exchanging raw data. However, non-IID data has been a key challenge in FL, which could significantly degrade the accuracy of the final model. Among different non-IID types, label skews have been challenging and common in image classification and other tasks. Instead of averaging the local models in most previous studies, we propose FedConcat, a simple and effective approach that concatenates these local models as the base of the global model to effectively aggregate the local knowledge. To reduce the size of the global model, we adopt the clustering technique to group the clients by their label distributions and collaboratively train a model inside each cluster. We theoretically analyze the advantage of concatenation over averaging by analyzing the information bottleneck of deep neural networks. Experimental results demonstrate that FedConcat achieves significantly higher accuracy than previous state-of-the-art FL methods in various heterogeneous label skew distribution settings and meanwhile has lower communication costs. Our code is publicly available at https://github.com/sjtudyq/FedConcat.

总结:

  • 为解决标签偏斜,提出FedConcat,concatenates局部模型作为全局模型的基,以有效地聚合局部知识。
  • 为了减少全局模型的规模,采用聚类技术,根据客户的标签分布对客户进行分组,并在每个簇内协同训练一个模型。
  • 通过分析深度神经网络的信息瓶颈,从理论上论证了连接方法相较于平均方法的优势。
  • 实验结果表明,在各种异构标签偏斜分布设置下,FedConcat的准确率显著高于之前最先进的联邦学习方法,同时具有更低的通信成本。

其他讲解:Exploiting Label Skews in Federated Learning with Model Concatenation——利用模型级联的联邦学习中的标签偏移_联邦学习 标签偏移-优快云博客


Introduction(简略)

尽管现有的联邦学习(FL)方法已经在处理数据异构性问题上取得了一定进展,但它们依然面临标签偏斜问题的挑战。在标签偏斜的情况下,不同客户端之间的标签分布差异会显著降低FL模型的性能,尤其在极端的标签偏斜情况下,现有的基于模型平均的算法效果并不理想。

为了应对这一问题,本文提出了一种新的方法——FedConcat,通过模型连接而非传统的平均方法来解决标签偏斜问题。具体来说,FedConcat通过聚类将客户端根据标签分布划分为若干组,在每组内应用FedAvg训练模型,并将各组的编码器进行连接,从而充分利用不同客户端的标签分布信息。实验表明,FedConcat在多种标签偏斜设置下,相较于现有方法显著提高了准确率,尤其在极端标签偏斜情况下表现尤为突出,同时还在降低通信和计算成本方面展现了优势。

Introduction(与Method中内容重复)

问题

数据异构性是 FL 中的一个具有挑战性的问题,因为 FL 客户端之间的非独立同分布(non-IID)数据分布可能会降低 FL 模型的性能并减缓模型收敛(Karimireddy 等 2020;Li 等 2020b;Hsu, Qi, 和 Brown 2019;Li 等 2021)。根据 Li 等(2021)的研究,非独立同分布数据包括标签偏斜、特征偏斜和数量偏斜。在本文中,我们重点关注标签偏斜(即不同客户端的标签分布不同),这在现实中非常常见(例如,不同地区的疾病分布存在差异)。

相关研究

FedProx(Li et al. 2020a)使用本地模型与全局模型之间的L2距离来正则化本地训练。MOON(Li, He, and So

### 利用共享表示进行个性化联邦学习 在个性化联邦学习中,利用共享表示的方法旨在通过模型间的信息交换来提升各客户端本地模型的表现,同时保持一定程度的个性化。这种方法通常涉及两个主要方面:全局模型参数更新和个化调整。 #### 全局模型训练与个化调整 为了实现这一目标,在每轮迭代过程中,服务器会收集来自不同客户的梯度信息并计算平均值作为新的全局权重向量[^1]。随后,这些更新后的参数会被分发给各个客户机用于下一轮局部优化过程中的初始化设置。然而,由于数据分布差异较大以及隐私保护需求的存在,直接采用统一策略可能无法满足特定应用场景下的性能要求。 因此,研究者们提出了多种基于元学习框架下的解决方案,允许每个参与者根据自身特点自适应地微调其内部结构而不影响其他成员的学习进度。例如,可以通过引入额外的任务无关特征映射层或将某些神经网络组件设为固定不变等方式增强跨域泛化能力的同时保留个体特性。 #### 技术细节与算法设计 具体来说,一种常见的做法是在标准Federated Averaging (FedAvg)基础上加入正则项约束条件以鼓励相似样本之间形成更紧密关联;另一种则是借助于生成对抗网络(GANs),让多个代理机构共同构建一个虚拟空间内的公共表征库供后续迁移使用。此外还有些工作探索了如何结合强化学习机制动态调整参与方贡献比例从而达到更好的协作效果。 ```python def fed_avg_with_regularization(models, regularization_lambda=0.01): global_model = sum([model * (1 / len(models)) for model in models]) # Add L2 Regularization term to encourage similarity among local updates reg_term = sum([(global_model - m).norm() ** 2 for m in models]) * regularization_lambda optimized_global_model = global_model - reg_term return optimized_global_model ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值