【联邦/元学习】个性化联邦学习论文笔记:《Improving federated learning personalization via model agnostic meta learning》

本文探讨了联邦学习中的数据异构性问题,提出将联邦平均(FedAvg)算法视为元学习的一种形式。研究发现,通过微调全局模型可以改善个性化效果,但直接优化全局模型可能无法达到最佳个性化性能。文章提出了改进的FedAvg方案,结合模型无关元学习(MAML)思想,旨在优化个性化模型、可靠的初始模型和快速收敛。实验表明,微调阶段对于提高个性化性能至关重要,而且不同的全局模型在个性化能力上可能存在显著差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文:《Improving federated learning personalization via model agnostic meta learning》

Citation:Y. Jiang, J. Konecny, K. Rush, and S. Kannan, “Improving federated learning personalization via model agnostic meta learning,” arXiv preprint arXiv:1909.12488, 2019.

原文链接:https://arxiv.org/abs/1909.12488

0、摘要

联邦学习 FL:在不复制原始数据的情况下,基于去中心化数据存储学习高质量的全局模型。
动机:针对不同的设备(客户端),存在数据异构性
目的:为每一个客户端,设计一个个性化全局模型

提出方法:基于元学习模型(MAML:快速优化、基于梯度、适应于异构分布)
1)流行的联邦学习算法(联邦学习 FedAvg)可以解释为一种元学习算法;
2)微调可以得到精度更高的全局模型,同时也更容易进行个性化;但仅对全局模型优化会产生较弱的个性化结果。

1、介绍

使用联邦学习的原因:大规模数据集导致了隐私风险,联邦算法可以保护每

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值