
联邦学习
文章平均质量分 78
噜噜噜鹿鹿
盛世之牛马,乱世之炮灰
展开
-
【论文阅读】Adapt to Adaptation: Learning Personalization for Cross-Silo Federated Learning(APPLE)
具体来说就是每个客户端都能获取到其他所有的客户端的模型,然后拿着其他客户端的模型跑自己的数据,谁跑出来的loss小谁就对我有帮助,权重会相对大一些。论文首先就是指出现有的PFL方法(比如finetune和个性化层)都没怎么捕捉到不同task之间的联系,所以就提出了这个方法,为每一个Client引入了一个长度为n的权重变量。每次只拿M个,没拿满的时候优先拿之前没拿过的客户端的模型。:随着训练轮次的增加,正则化权重逐渐减小,允许客户端的个性化模型逐渐发挥更大的作用。λ是权重函数,随着轮次的上升而下降。原创 2024-09-26 15:35:29 · 467 阅读 · 0 评论 -
【论文阅读】FedBABU:TOWARD ENHANCED REPRESENTATION FOR FEDERATED IMAGE CLASSIFICATION
FedPer:训练过程中只聚合主体参数。与BABU不同的是,BABU直接把头部参数给冻结了,而Per头部依旧是参与训练的。训练过程中冻结客户端的头部参数,只训练主体参数。训练完之后再在客户端本地跑几个epoch微调一下(文章推荐5个)。由于该算法与FedPer思路过于相似,故读完后跑了个实验。原创 2024-09-25 17:14:50 · 758 阅读 · 7 评论 -
【论文阅读】FedABC: Targeting Fair Competition in Personalized Federated Learning
主要就是提出了二元分类策略,将多分类变成n个二分类任务,每个二分类任务将本类别内的样本作为正样本,其他所有的类别作为负样本,这样能显著减少NOIID的影响。当然缺点应该是需要同时训练n个模型,计算的代价变高了。FedABC利用二元分类的训练策略来解决每个类别的个性化问题。这意味着对于每个类别都训练一个独立的二元分类器,从而使得每个类别都能得到足够的关注,即使是那些样本较少的类别。为了处理数据中的类别不平衡问题,FedABC采用了欠采样技术,这可以帮助模型减少对多数类的过分关注,从而提高对少数类的分类性能。原创 2024-09-18 14:19:58 · 668 阅读 · 0 评论 -
联邦学习周记|第四周
但如果手上只有振幅谱或相位谱的其一,就无法变换回去,这保证了隐私性。同时针对FL中可能存在的异质问题而导致每个Client重建,文章还提出了一个识别器用于分辨两个站点间重构出来的图像的特征区别,并将loss加上这个识别器的值,最终跑到识别器无法分辨出不同站点间的区别就算结束了,这解决了异质性的问题。具体的,文章指出传统的DG(域泛化)在FL隐私保护的背景下作用有限,提出将原始数据通过快速傅立叶变换转化到频率空间中,并通过连续插值的方法桥接多个数据分布空间,以加强模型在未见过的数据分布空间的性能。原创 2024-06-18 18:20:18 · 1107 阅读 · 0 评论 -
联邦学习入门周记|第二周
待更新!!!原创 2024-05-17 20:44:49 · 425 阅读 · 0 评论 -
联邦学习入门周记|第一周
数据量异质性指的是每个Client之间的数据量不同,比如A有100个数据,B只有1个数据。数据特征异质性是指每个Client之间的数据特征不同,比如A中的数据有猫、狗、猪、马,B中的数据里只有乌龟。数据异质性会导致最终跑出来的模型产生偏差,比如给模型100张猫的图,1张狗的图,那么最终模型对于猫的辨认能力一定远大于对于狗的辨认能力。联邦学习的入门论文。论文大意就是由于各种原因,我们需要一种新的分布式的学习算法,用于将各客户端的数据也都加入训练中,但是不能直接将客户端数据直接给服务端,这种算法就叫联邦学习。原创 2024-05-16 19:38:21 · 435 阅读 · 0 评论