自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 【论文阅读】Exploiting Label Skews in Federated Learning with Model Concatenation

其他讲解:Exploiting Label Skews in Federated Learning with Model Concatenation——利用模型级联的联邦学习中的标签偏移_联邦学习 标签偏移-优快云博客尽管现有的联邦学习(FL)方法已经在处理数据异构性问题上取得了一定进展,但它们依然面临标签偏斜问题的挑战。在标签偏斜的情况下,不同客户端之间的标签分布差异会显著降低FL模型的性能,尤其在极端的标签偏斜情况下,现有的基于模型平均的算法效果并不理想。为了应对这一问题,本文提出了一种新的方法——F

2025-01-13 17:10:07 1071 1

原创 【论文阅读】FedABC: Targeting Fair Competition in Personalized Federated Learning

联邦学习旨在在不访问客户端本地私人数据的情况下,协作训练模型。由于不同客户端的数据可能是非独立同分布(Non-IID)的,这可能导致性能较差。最近,个性化联邦学习(PFL)通过在本地优化中引入正则化或改善服务器上的模型聚合方案,在处理非IID数据方面取得了很大成功。然而,大多数PFL方法并未考虑由数据分布不均衡和每个客户端中某些类别缺乏正样本所引发的不公平竞争问题。

2025-01-12 22:14:11 1025 1

原创 【论文阅读/源码解析】Tackling Data Heterogeneity in Federated Learning with Class Prototypes

在联邦学习(FL)环境中,客户端数据异质性是一个广泛公认的挑战。为应对这一挑战,个性化联邦学习(PFL)作为一种框架应运而生,旨在为客户端任务定制本地模型。在PFL中,一个常见的策略是共同开发本地和全局模型——全局模型(用于泛化)指导本地模型,而本地模型(用于个性化)则被聚合以更新全局模型。一个关键观察是,如果我们能够提升本地模型的泛化能力,那么也能提升全局模型的泛化能力,从而构建更好的个性化模型。在本研究中,我们考虑了分类任务中一种被忽视的数据异质性类型——类别不平衡。

2025-01-08 17:31:03 736 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除