
论文阅读与学习
文章平均质量分 94
多喝开水少熬夜
这个作者很懒,什么都没留下…
展开
-
AFL-DCS: An asynchronous federated learning framework with dynamic client scheduling
联邦学习作为一种新兴的分布式机器学习范式,能够在保护本地数据隐私的同时,在大量边缘设备上训练全局模型。在典型的联邦学习范式下,全局模型通过同步协议进行更新,这要求服务器在每个回合更新全局模型之前等待所有客户端返回其模型参数。然而,由于设备异构性导致的拖沓效应可能会严重降低同步联邦学习的训练效率。异步联邦学习可以有效缓解由设备异构性引起的训练低效,但异步更新协议使得全局模型更容易受到异构数据的影响。在非独立同分布(non-IID)设置下,异步联邦学习的全局模型可能难以收敛,甚至无法收敛。原创 2025-03-26 17:47:39 · 865 阅读 · 0 评论 -
Federated learning client selection algorithm based on gradient similarity阅读
联邦学习(FL)是一种创新的机器学习方法,终端设备在中央服务器协调下共同训练全局模型,解决了数据隐私和数据孤岛问题,而无需将数据传输到中央服务器。然而,在联邦学习中,客户端数据的异质性显著影响了 FL 的性能。为了解决模型精度低和收敛速度慢的问题,提出了一种基于梯度相似性的客户端选择算法(FedGSCS)。该算法通过比较客户端梯度与平均梯度之间的相似性来选择客户端,优先选择能够加速模型聚合以促进模型收敛的客户端。原创 2025-03-24 20:54:07 · 915 阅读 · 0 评论 -
Client Selection in Federated Learning: Principles,Challenges, and Opportunities论文阅读学习
联邦学习(FL)作为一种训练机器学习(ML)模型的隐私保护范式,已经受到了工业界和学术界的广泛关注。在一个典型的FL场景中,客户端在数据分布和硬件配置方面表现出显著的异构性。因此,在每一轮训练中对随机客户端进行抽样,可能无法充分利用异构客户端的局部更新,导致模型精度较低、收敛速度较慢、公平性降低等。为了解决FL客户端异构性问题,人们开发了各种客户端选择算法,显示出了良好的性能改进。在这篇文章中,我们系统地介绍了FL客户选择的新兴领域的最新进展及其挑战和研究机会。原创 2024-12-30 19:36:29 · 1001 阅读 · 0 评论 -
FedGraph: Federated Graph Learning With Intelligent Sampling论文阅读
联邦学习因其在分布式机器学习中的隐私保护而引起了研究的广泛关注。然而,现有的联邦学习工作主要集中在卷积神经网络(CNN)上,它不能有效地处理在许多应用中流行的图数据。图卷积网络(GCN)被认为是最有前途的图学习技术之一,但其联邦设置很少被探索。在本文中,我们提出了用于多个计算客户端之间的联邦图学习的联邦图,每个计算客户端都包含一个子图。FedGraph通过解决两个独特的挑战,为跨客户端提供了强大的图形学习能力。首先,传统的GCN训练需要在客户之间进行特征数据共享,从而导致隐私泄露的风险。原创 2024-11-26 20:56:23 · 1367 阅读 · 0 评论 -
Collaborative DNNs Inference with Joint Model Partition and Compression in MEC论文阅读和学习
移动边缘云计算利用边缘设备和云服务器的计算资源来执行复杂的深度神经网络 (DNNs) 进行协作推理。然而,许多现有的协作推理方法没有充分考虑边缘设备的有限资源,导致推理延迟较高。在本文中,我们设计了一个集成计算框架,该框架结合了模型分区和压缩以减少推理延迟。具体来说,我们在中间层对 DNN 模型进行分区,并将前一层部署在边缘设备上,将后一层部署在云服务器上。我们提出了一种协作双智能体强化学习算法 CPCDRL 来确定分区点和压缩比。它能够根据各种分区点自适应地调整压缩比,其总体目标是最。原创 2024-11-07 16:54:52 · 911 阅读 · 2 评论 -
Energy-Efficient Client Sampling for Federated Learning in Heterogeneous MEC Networks 论文阅读和学习
为了解决网络拥塞和数据隐私问题,将多个客户端和一个参数服务器相结合的联邦学习(FL)已广泛应用于移动边缘计算(MEC)网络,以处理移动客户端生成的大量数据。然而,现有的客户端采样方法没有充分考虑数据异构性和系统异构性。参数服务器选择不合适的客户端参与FL训练过程。这不可避免地导致全局模型的收敛速度变慢,能耗增加。在本文中,我们设计了一个客户端采样模型,目的是选择合适的客户端来提高异构MEC网络中FL的能源效率。然后,我们通过量化客户端的通信能力、计算能力和数据质量,提出了一种节能的客户端采样策略。原创 2024-11-03 10:11:58 · 1147 阅读 · 0 评论 -
Incentive-Driven Wireless Powered Federated Learning阅读和学习
联邦学习 (FL) 通过共享模型参数而不是原始数据来训练机器模型,可以保护终端设备工人 (EW) 的数据隐私。然而由于能量限制和自私心理,EW 可能不愿意参与或者训练缓慢,从而影响全局 FL 模型的性能。为了解决这些问题,我们提出了一个基于三阶段 Stackelberg 博弈的无线供电 FL 框架,以激励所有参与者参与系统,同时确保 FL 任务的成功完成。具体来说,基站(BS)发布FL任务,希望以较低的成本获得更好的FL模型。EW训练本地FL模型,希望以更少的能耗获得更多的报酬。原创 2024-10-23 09:39:23 · 664 阅读 · 0 评论 -
Communication-Efficient Learning of Deep Networks from Decentralized Data论文代码复现
这两天看了一下《Communication-Efficient Learning of Deep Networks from Decentralized Data》论文,感兴趣的同学可以去看看我上一个博客,然后根据论文还有问gpt写了一下相关代码,如果有问题欢迎指正。原创 2024-10-11 17:37:17 · 366 阅读 · 0 评论 -
Communication-Efficient Learning of Deep Networks from Decentralized Data论文阅读和学习
现代移动设备可以访问大量适合学习模型的数据,这反过来可以大大改善设备上的用户体验。例如,语言模型可以改善语音识别和文本输入,图像模型可以自动选择好的照片。然而,这些丰富的数据往往对隐私敏感,数量庞大,或两者兼而有之,这可能会妨碍使用传统方法登录数据中心并在那里进行训练。我们提倡一种替代方案,将训练数据分布在移动设备上,并通过聚合本地计算的更新来学习共享模型。我们将这种分散的方法称为联邦学习。原创 2024-10-11 16:22:06 · 667 阅读 · 0 评论 -
Knowledge Graph Driven Inference Testing for Question Answering Software--论文阅读和学习
随着自然语言处理领域的发展,问答(QA)软件已经渗透到我们的日常生活中。由于数据驱动的编程范式,QA软件不可避免地包含bug,即在现实应用程序中的错误行为。目前的QA软件测试技术包括两种方面,基于参考的测试和变质测试(变形测试)。QA软件中的reference-based testing和metamorphic testing是两种常见的测试方法,用于验证问答软件的性能和准确性。以下是对这两种方法的详细说明:1. Reference-based Testing(基于参考的测试)原创 2024-09-25 20:18:15 · 1904 阅读 · 1 评论