
联邦学习
文章平均质量分 88
联邦学习小白
联邦学习/大数据/机器学习
展开
-
pytorch中model.parameters()和model.state_dict()使用时的区别
联邦学习模拟实验中涉及模型参数的聚合和广播,需要提取模型参数。这个时候一般有两个选择,model.parameters() 和 model.state.dict()。表面上看这两者的区别只在于 model.parameters() 方法返回的是一个生成器generator,里面只有模型的参数,而没有对应的网络层名称;而model.state_dict() 返回的则是一个字典 {key:value},key 时网络层名称,value 则是该层的参数。但我实际做实验的时候发现,分别用这两种方法进行聚合的实验原创 2022-03-18 13:33:31 · 8272 阅读 · 0 评论 -
联邦持续学习——Federated Weighted Inter-client Transfer(FedWeIT)
联邦持续学习的目的联邦持续学习意在将联邦学习和持续学习相结合,以解决 “每个客户端从私有本地数据流中学习一系列任务,不同客户端之间也可以互相借鉴彼此已有的知识以增强自身的学习效果” 的场景,目前这方面的研究还很少。联邦持续学习的挑战和持续学习类似的,联邦持续学习也面临“灾难性遗忘”;此外,由于不同客户端训练的任务可能存在很大的差别,联邦持续学习训练过程中每个客户端还面临“来自其他客户端的干扰”;再者,由于每个客户端都希望能从其他客户端的相似任务中获得共识知识,“通信代价”也成为了一个不可忽视的问题。原创 2021-10-01 18:45:04 · 3881 阅读 · 3 评论 -
联邦学习——一种基于分布和知识蒸馏的聚合策略
《FEDBE: Making Bayesian Model Ensemble Applicable to Federated Learning》是ICLR 2021的一篇文章。该文章主要提出了一种新的聚合策略,该策略在 multi-round FL 以及 Non-IID 下具有不错的表现。这里我主要总结这个策略的思路。构建模型分布:首先客户端将本地训练好的模型发送给服务端,服务端应用Dirichlet或 Bayesian构建模型的分布,具体构建方法可以看论文。模型采样:服务端对所构建的模型分布进行采样原创 2021-09-26 11:14:41 · 4143 阅读 · 1 评论 -
联邦学习——Base + Personalization Layers的另一种玩法
在典型的联邦学习中,不同设备之间的数据分布差异很大。为了缓解这种统计异质性的不利影响,《Federated learning with personalization layers》这篇文章给出了一个新的思路:将模型分为基础层和个性化层,提出了名为 FedPer 的架构。与联邦迁移学习(即首先对所有层进行全局训练,然后对所有或个别层进行局部数据再训练)不同,FedPer 先在全局数据上训练基础层,再在本地数据上训练个性化层,避免了联邦迁移学习需要重训练的问题。《Exploiting Shared Repr原创 2021-09-24 17:55:24 · 3423 阅读 · 1 评论 -
联邦学习如何训练用户识别模型?
“用户识别模型”也就是训练一个通过语音,或人脸,或指纹等个人信息进行身份识别的模型,也是一个选择“接受”或”拒绝”的二元决策问题。以基于embedding的分类为例,一个样本只有其embedding与reference embedding足够接近,才能通过模型验证(被模型接受),换句话说就是“身份验证成功”。联邦学习训练“用户识别模型”存在两个挑战:每个参与方只有一个用户的信息作为训练数据,也就是说所有数据都属于同一个类标签(用户自身)采用embeddind vector表征用户身份信息,由于涉及用原创 2021-09-23 00:06:25 · 1222 阅读 · 1 评论 -
Batch Normalization在联邦学习中的应用
回想一下联邦学习(FL)中的FedAvg,这个算法是将每个参与方的模型的所有参数进行加权平均聚合,包括Batch Normalization(BN)的参数。再回顾一下BN。式中µ和σ2σ^2σ2为BN统计量,是通过每个channel的空间和批次维度计算而得的running mean和running variances。γ和β为实现"变换重构"的超参数。ε用于预防分母为零。我们知道FL的一个重要意义就在于保护参与方的数据隐私,而BN层的统计参数µ和σ2σ^2σ2实际上在一定程度上隐含着本地数据的统计信息原创 2021-09-22 20:12:44 · 1538 阅读 · 3 评论 -
FedBN总结
《FEDBN: FEDERATED LEARNING ON NON-IID FEATURES VIA LOCAL BATCH NORMALIZATION》ICLR 2021。文章通过在局部模型中加入批量归一化层(BN)解决联邦学习数据异构性中feature shift这种情况(之前很多文章都是研究label shift或client shift),文章将这种方法名为FedBN。什么是feature shifty为标签,x为特征,文章将feature shift定义为以下情况:1)covariate s原创 2021-09-04 10:32:15 · 5771 阅读 · 0 评论 -
FedFomo论文阅读笔记
《PERSONALIZED FEDERATED LEARNING WITH FIRST ORDER MODEL OPTIMIZATION》是ICRL-2021的一篇个性化联邦学习文章。该文章通过赋予客户一个新的角色,并提出一种新的权重策略,构造了一种在隐私和性能之间进行权衡的新的联邦学习框架。创新点:传统的联邦学习目标是训练一个全局模型,个性化联邦学习则认为单一的全局模型难以收敛,且并非在每个客户上都有很好的表现。这篇文章也是基于个性化的想法,同时赋予客户一个新的角色。提出服务端保存每个客户的模型,原创 2021-08-17 17:43:43 · 3282 阅读 · 1 评论 -
联邦学习——基于聚类抽样进行客户选择
《Clustered Sampling: Low-Variance and Improved Representativity for Clients Selection in Federated Learning》针对目前联邦学习中的客户选择策略存在的偏倚问题、server-client通信和训练稳定性问题,这篇文章提出采用聚类抽样的方法进行客户选择,并证明了聚类抽样能提高用户的代表性,并减少不同客户聚合时的权重差异。本文提出了基于样本数量和模型相似性的两种聚合抽样方法,并通过实验证明,采用聚类抽样的方法原创 2021-08-03 15:03:16 · 6618 阅读 · 3 评论 -
联邦学习——基于知识蒸馏的多源域适应
《KD3A: Unsupervised Multi-Source Decentralized Domain Adaptation viaKnowledge Distillation》是一篇被ICML 2021接收的论文,论文作者来自浙江大学CAD&CG国家重点实验室。这篇文章提出一个对来自多个源域的模型进行知识蒸馏来构建可迁移的共识知识,并可应用于联邦学习的无监督多源域适应方法。简介传统的无监督多源域适应UMDA(Unsupervised Multi-source Domain Adaptat原创 2021-07-25 19:38:32 · 3637 阅读 · 1 评论 -
联邦学习——用data-free知识蒸馏处理Non-IID
《Data-Free Knowledge Distillation for Heterogeneous Federated Learning》最近出现了利用知识蒸馏来解决FL中的用户异构性问题的想法,具体是通过使用来自异构用户的聚合知识来优化全局模型,而不是直接聚合用户的模型参数。然而,这种方法依赖于proxy dataset,如果没有这proxy dataset,该方法便是不切实际的。此外,集成知识没有被充分利用来指导局部模型的训练,这可能反过来影响聚集模型的性能。基于上述挑战,这篇文章提出了一种da原创 2021-07-18 14:37:08 · 6154 阅读 · 12 评论 -
联邦元学习笔记
《Personalized Federated Learning: A Meta-Learning Approach》这篇文章利用元学习来实现联邦个性化学习,将用户看作元学习中的多个任务。和元学习一样,其目标是找到一个初始化模型,当前用户或新用户只需对他们的本地数据执行一步或几步梯度下降,便可将模型适应他们的本地数据集。这样当有一个新用户进来时,就可以通过一步或几步梯度下降快速获得一个高效的个性化模型。文章主要内容有三点:1、将元学习和FL进行结合,具体以FedAvg为框架,以MAML为内容,提出Per原创 2021-07-14 11:48:22 · 2573 阅读 · 1 评论 -
联邦学习——Ditto:同时提升公平性和鲁棒性
《Ditto: Fair and Robust Federated Learning Through Personalization》这篇文章的作者之一Virginia Smith于2017年提出了Federated Multi-Task Learning用于实现个性化联邦学习。这篇文章提出的Ditto算法也是基于联邦多任务学习的个性化方法,目的在于同时提升联邦学习中的公平性和鲁棒性。FL公平性和鲁棒性的定义公平性:不同设备的本地模型具有相同性能鲁棒性:具体指拜占庭鲁棒性,即恶意节点可以给服务器发送任原创 2021-07-07 21:24:56 · 6385 阅读 · 4 评论 -
L2GD论文阅读笔记
摘要《Federated Learning of a Mixture of Global and Local Models》这篇论文的目的是在Local和Global之间寻找一个trade off,对全局模型和局部模型进行混合,并提出适用于这一想法的几种新的梯度下降算法,如L2GD,该算法还能改进通信复杂度。本文的两项动机1、全局模型在客户端的实用性问题。2、传统的LGD在理论上,并不能改善的通信复杂度。主要贡献一、能够混合全局模型和局部模型的新目标函数。通过加入一个乘以λ的惩罚项ψ(λ>原创 2021-07-07 14:07:18 · 1653 阅读 · 2 评论 -
FedProx论文阅读笔记
《FEDERATED OPTIMIZATION IN HETEROGENEOUS NETWORKS》这篇文章提出了一个基于FedAvg的优化框架Fedprox,主要在于解决FedAvg未曾处理的联邦学习中的异构性问题,并提供了更强的鲁棒性。FedAvg在FedAvg中,每个设备在模型训练过程中具有相同的学习率和迭代次数。在每一轮更新中,被选中参与本轮训练的设备K在本地运行E轮SGD,每个设备将更新结果返回给服务器,服务器对得到的模型更新进行平均从而获得全局更新,并完成本轮训练。伪代码如Algorithm原创 2021-07-04 00:04:39 · 7947 阅读 · 5 评论 -
pFedHN论文阅读笔记
《Personalized Federated Learning using Hypernetworks》提出一种用于个性化联邦学习的方法“pFedHN” (personalized Federated HyperNetworks)。该方法通过训练中央超网络模型,实现跨客户端的参数共享,并为每个客户端生成独特的个性化模型。该方法的创新点主要有以下两点:1、该超网络具备较强的泛化能力,即便(a)新的客户端的数据分布不同于训练时的客户端,(b)新的客户端具备不同的计算性能(这使得不同客户端可以训练不同规模的原创 2021-06-25 17:29:41 · 1851 阅读 · 2 评论 -
联邦学习中的数据异构性问题综述
摘要联邦学习中的数据异构性问题主要是由参与训练的各客户端的数据虽独立分布但不服从同一采样方法(Non-IID)所导致的,这一问题也导致模型精度的严重下降。如何缓解Non-IID带来的不利影响目前仍是一个开放性的问题。目前已经有很多算法可以应用于这一问题的处理上,但由于这些算法的实验都是基于不同的数据划分策略,我们没办法系统地、直观地理解这些算法的优缺点。为了能对各算法的性能进行一个比较,《Federated Learning on Non-IID Data Silos: An Experimental原创 2021-06-19 18:08:18 · 15820 阅读 · 3 评论 -
个性化联邦学习综述
《Personalized federated learning for intelligent iot applications》原创 2021-06-16 01:26:10 · 18955 阅读 · 4 评论 -
联邦学习——基于节点梯度和全局梯度的内积进行节点选择
联邦学习——FedPNS填上一篇的坑。《Node Selection Toward Faster Convergence for Federated Learning on Non-IID Data》这篇论文建立在数据异构的基础上,设计了一个选择性地让节点参与模型聚合的概率模型。通过排除不利于全局收敛的节点,提高模型收敛速度和预测精度。摘要联邦学习(FL)是一种分布式学习范式,它允许大量资源有限的节点在没有数据共享的情况下协作训练模型。非独立的和同分布的(Non-IID)数据样本造成了全局目标和局部原创 2021-06-15 12:44:21 · 3126 阅读 · 3 评论 -
Astraea论文阅读笔记
总结两篇基于全局模型的联邦学习(一)在开始个性化联邦学习之前,我也看了一些基于全局模型的联邦学习论文,这里挑两篇来做写写,一篇是《Self-Balancing Federated Learning With Global Imbalanced Data in Mobile Systems》,该论文提出Astraea框架来缓解设备之间数据标签不平衡和局部不平衡问题;第二篇是《Node Selection Toward Faster Convergence for Federated Learning on原创 2021-06-15 10:51:52 · 2553 阅读 · 1 评论 -
联邦学习开坑!
联邦学习开坑!本人目前的大研究方向是联邦学习(FL),在老师的建议下,我决定从客户端数据异构这一方向出发开展学习。这里就先开个坑,开始记录自己的学习心得,欢迎各位批评指正,共同学习。在现有的 FL 系统中,参与每一轮更新的客户端数量通常是固定的。最初的 FL 系统假设全部客户端都完全参与,即所有客户端都参与了每一轮的训练。而在实际应用中,受限于客户端状态、网络条件等,FL 的实施方案在每轮训练中只是随机选择一小部分客户端参与(如FedAVG)。但是,由于在 FL 环境中存在大量的异构客户端(Hetero原创 2021-06-14 22:37:00 · 3935 阅读 · 13 评论