自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 VERIFL: Communication-Efficient and Fast Verifiable Aggregation for Federated Learning

摘要:联邦学习(FL)使得大量客户端能够通过在每个同步的本地训练周期中共享梯度,协作训练一个全局模型。然而,用于聚合这些梯度的中心化服务器可能被攻破并伪造结果,从而侵犯隐私或发起其他攻击,这引发了对聚合结果完整性验证的需求。本研究探索如何在联邦学习中设计通信高效且快速可验证的聚合机制。我们提出了VERIFL——一种可验证的聚合协议,其每个训练周期的验证过程仅需O(N)(与维度无关)的通信开销和O(N + d)的计算开销,其中N为客户端数量,d为梯度向量的维度。

2025-05-20 20:11:32 633

原创 Efficient Verifiable Protocol for Privacy-Preserving Aggregation in Federated Learning

文章总结本文提出了一种安全、抗退出且可验证的联邦学习协议,旨在解决传统联邦学习中用户隐私泄露、用户中途退出影响模型聚合,以及服务器可能篡改结果的关键问题。其核心设计结合分布式掩码机制、双重聚合验证与形式化安全证明,适用于医疗等高隐私敏感场景。核心贡献与技术亮点隐私保护机制分布式随机掩码:用户使用与多个辅助节点协商的共享种子密钥生成伪随机数,对本地梯度进行加噪(x̂_n = x_n + ∑PRG(sn,m)),确保梯度在传输中不可逆。

2025-05-14 21:00:46 816

原创 PFLM: Privacy-preserving federated learning with membership proof证明阅读

隐私保护联邦学习是一种分布式机器学习,多个合作者通过受保护的梯度来训练模型。为了实现对用户退出的鲁棒性,现有的实用隐私保护联邦学习方案都是基于(t,N)-门限秘密共享的。这种方案依赖于一个强假设来保证安全性:阈值t必须大于用户数的一半。这种假设是如此严格,以至于在某些情况下,这些方案可能并不合适。基于这个问题,我们首先引入了联邦学习的成员资格证明,它利用密码累加器通过累加用户ID来生成成员资格证明。这些证据在公共区块链上发布,供用户验证。

2025-04-20 20:15:42 1109

原创 A Scheme of Robust Privacy-preserving Multi-Party Computation via Public Verification公开验证+隐私保护

提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。系统组成与流程三大实体:客户端:负责将原始数据拆分为加密分片,通过安全信道分发给服务器,并最终解密聚合结果。服务器:执行分片上的计算任务(加法/乘法),加密结果后提交至区块链。区块链:作为去中心化审计平台,通过智能合约自动验证计算结果的合法性。

2025-04-10 20:00:27 1055

原创 FogFL: Fog-Assisted Federated Learning for Resource-Constrained IoT Devices

A. 动机联邦学习(FL)完全依赖于中心化实体来在每个训练周期选择参与者、配置设备并评估全局聚合结果[1],这带来了瓶颈问题和单点故障的风险,常导致全局模型失真[3]。此外,FL依赖高性能智能手机通过额外计算减少通信轮次,但这在资源受限的边缘设备上不可行[2]。然而,FL相比传统分布式学习具备非独立同分布(non-IID)数据支持、最小化客户端数据传输和隐私保护等优势[2],这成为我们研究的动机。在边缘网络中引入雾计算[11][12]可缓解上述问题。

2025-04-07 19:31:04 1065 5

原创 Sustainable Fog-Assisted Intelligent Monitoring Framework for Consumer Electronics in Industry 5雾辅助

工业5.0标志着工业制造和产品开发的新阶段,它在工业4.0的自动化、数据交换和数字技术基础上进一步发展[1]。工业5.0(也被称为智能工业)代表了制造业的最新革命。这一时代的特征是通过人工智能(AI)方法(如深度学习)实现自动化与数据分析,从而增强计算机能力[1][2][3]。智能工厂正在部署更多物联网(IoT)设备,为AI方法收集关键数据。自动化与数据是该时代的核心要素,其中数据通过深度学习等人工智能技术进行分析以提升计算能力[4]。

2025-03-23 16:25:56 610

原创 SVFL:Successive verifiable federated learning with privacy-preserving 联邦学习文献阅读

本篇文章主要利用了双线性映射,blk加密,首先用户保证自己的本地模型没有恶意而且没有篡改才能进行加密聚合,然后加密聚合后,加密聚合的结果必须先保证参与者完成了本地模型参数的上传,验证完整性聚合后,才能分发给参与者,参与者接收到聚合结果,必须要进行验证,才能进行新一轮的训练。

2025-03-16 19:18:44 727

原创 Secure and Privacy-Preserving Decentralized Federated Learning同态加密联邦学习文献阅读

简单来说是一个雾节点连邦学习,利用同态加密,和区块链的知识,主要 是:首先用户在雾节点里边进行了注册服务,然后雾节点提供用户认证和识别,用户进行登陆后,经过fn检查才能使用计算,然后进行训练:初始化全局模型,每个轮次开始的时候,雾节点利用当前的全局模型斤初始化本地模型,在fn处:检索用户训练所需要的本地数据,对于每个用户来说,进行梯度算法更新,更新后加密传输,雾节点利用本地模型聚合,聚合得到的本地模型w——fog,得到优化模型,然后再所有的雾节点更新后,再返回到训练好的全局模型。

2025-03-13 20:53:56 1064 6

原创 经典可验证文献阅读VerifyNet: Secure and Verifiable Federated Learning

文提出了一种名为 VerifyNet 的联邦学习框架,旨在解决以下三大核心问题:梯度隐私泄露风险:保护用户本地梯度不被攻击者(包括云服务器和合谋用户)推断。结果不可验证性:防止云服务器篡改或伪造聚合结果。用户动态退出问题:支持用户因网络或设备问题中途离线,且不影响系统运行和隐私保护。主要创新点双掩码协议(Double-Masking Protocol)

2025-03-11 20:58:31 1115

原创 Homomorphic Encryption and Federated Learning based Privacy-Preserving CNN 国外文献于都

机器学习(ML)是一种广泛应用于各领域的技术,计算机系统可以通过数据学习来提升性能。该技术被广泛应用于图像识别、自然语言处理和机器翻译等领域。联邦学习[13]是一种分布式机器学习技术,训练数据分布在多个设备上,以协作方式进行学习过程。该技术可用于提升医疗数据的隐私安全性[10]。医疗数据通常高度敏感且涉及隐私安全问题[1]。例如,个人健康信息具有机密性,可能被用于身份识别。

2025-03-10 20:24:02 977

原创 Distributed Fog Computing and Federated-Learning-Enabled Secure Aggregation for IoT Devices阅读

例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。这篇论文面向雾计算(Fog Computing, FC)环境下的联邦学习(Federated Learning, FL),提出了一种高效且具备鲁棒性的安全聚合协议。论文针对物联网(IoT)设备数量庞大且容易掉线、云端处理压力大等现实问题,设计了在雾节点(FN)和云服务器协同下完成聚合求和的方案,核心思想与贡献可概括如下:雾计算与联邦学习结合。

2025-03-02 20:41:38 655

原创 TEVA: Training-Efficient and Verifiable Aggregation for Federated Learning for Consumer Electronics

摘要-联邦学习(FL)已被广泛用于工业5.0中的隐私保护模型更新,并得到了6 G网络的支持。尽管FL具有保护隐私的优势,但它仍然容易受到攻击,对手可以从本地模型中推断出私人数据或操纵中央服务器(CS)以提供伪造的全局模型。目前的隐私保护方法,主要是基于FedAvg算法,无法优化非独立和同分布(非IID)数据的训练效率。本文提出了培训有效的和可验证的聚集(TEVA)的FL来解决这些问题。该方案结合了阈值Paillier同态加密(TPHE),可验证的聚合,和优化的双动量更新机制(OdMum)。

2025-03-02 14:31:59 1006

原创 Byzantine-Robust and Privacy-Preserving Federated Learning With Irregular Participants学习

然而,在物联网场景中,深度学习仍面临许多挑战和问题。深度学习通常依赖于集中式训练方法,其中大量客户端将本地数据发送到云服务器进行集中式模型训练[5],这可能导致敏感数据泄露。在今天的数字经济中,数据是基础资源,数据隐私保护是物联网治理的基础。因此,提出了一种分布式学习方法——联邦学习(Federated Learning, FL)。在联邦学习中,客户端将本地模型发送到云服务器,而不会暴露本地敏感数据。联邦学习实现了数据本地存储,显著增强了数据隐私保护,同时也促进了联邦学习在各个领域的广泛应用。

2025-02-27 18:11:16 904

原创 A Verifiable Privacy-Preserving Federated Learning Framework Against Collusion Attacks阅读

随着算法的显著进步和数据的广泛可用,深度学习在图像识别 [1]、语言翻译 [2]、医学诊断 [3] 和金融投资 [4] 等领域取得了重要里程碑,接近甚至超越了人类水平。大量的数据在促进深度学习训练和预测过程中发挥了关键作用;然而,这也带来了隐私方面的担忧。首先,将参与者的私密数据纳入数据集可能无意中暴露相关个人的敏感信息。此外,当数据上传至服务器时,数据拥有者对其私密数据的使用缺乏意识和控制。某些领域,如医疗机构,受限于法规,禁止共享敏感数据,如患者记录。

2025-02-26 21:18:34 693

原创 A Privacy-Preserving Federated Learning Framework With Lightweight and Fair in IoT 阅读文献

联邦学习为参与者的数据隐私提供了部分保障。然而,目前缺乏针对物联网(IoT)量身定制的高效隐私保护联邦学习技术,这构成了一项挑战。虽然已有许多隐私保护的联邦学习框架提出,主要依赖同态加密系统,但它们在物联网中的适用性仍然有限。此外,联邦学习在物联网中的应用面临两个重要障碍:减轻巨大的通信成本和通信失败率,并有效识别和利用高质量数据,同时剔除低质量数据以进行协同建模。

2024-12-29 22:09:00 1069

原创 Communication-Efficient and Privacy-Preserving Aggregation in Federated Learning With Adaptability

问题背景:联邦学习面临的三大挑战通信效率:联邦学习需要多次在客户端和服务器之间传输模型参数或梯度,通信成本很高,可能导致效率低下甚至不可行。隐私保护:共享的模型参数中可能会泄露训练数据的敏感信息,威胁用户隐私。模型实用性:为保护隐私而引入的技术(如差分隐私)可能会影响模型的收敛性和准确性。现有方法的局限性差分隐私(DP)已被广泛应用于联邦学习中,但:DP 噪声对模型的准确性和收敛性有负面影响。DP 噪声可能导致额外的通信开销。联邦学习本身通信成本高,进一步加剧了这些问题。

2024-12-27 20:04:33 707

原创 A Verifiable Privacy-Preserving Federated Learning Framework Against Collusion Attacks 联邦学习文献阅读

大量的数据在促进深度学习训练和预测过程中发挥着至关重要的作用;然而,它们同时引起了隐私问题。第一,包括参与者的私人数据数据集内的信息可能会无意中暴露与所涉及的个人有关的机密信息。此外,当数据上传到服务器时,数据所有者缺乏对其私人数据使用的意识和控制。相反,某些领域(如医疗机构)受到禁止共享敏感数据(如患者记录)的监管约束。(数据孤岛和隐私问题)因此,如果医疗机构希望构建高度准确的医疗诊断模型,并且法律的限制仅限制其访问非敏感数据,则机构内有限的数据可用性可能导致训练不精确的深度学习模型。

2024-12-18 18:59:46 718

原创 Privacy-Preserving Federated Learning Based on Dataset Condensation 联邦学习文献阅读

FL中本地节点和服务器之间的模型参数的实质性交互显著地影响训练效率。此外,对模型权值的求逆攻击也可能导致严重的隐私泄露。为此,联合数据压缩和差分隐私(DP)技术,设计了一种通信高效、隐私保护的FL方案PPFL-DC。具体地说,所设计的DP处理方法保护了在真实的数据集上训练的模型权重。然后,利用保护后的模型权值指导生成轻量级的、隐私保护的合成图像,并设计了一种具有适当迭代次数的高效合成数据生成方法以降低局部计算开销.这些小的合成图像被发送到服务器,而不是大尺寸的模型权重。

2024-12-17 20:50:45 829

原创 G-VCFL: Grouped Verifiable Chained Privacy-Preserving Federated Learning 可验证链式联邦学习

用户的数据可能包含隐私信息。例如,在医疗诊断中,患者数据是高度隐私的,不能直接与第三方共享。此外,收集大量数据成为一个主要挑战,特别是在网络资源有限的情况下。所有这些问题使得集中式机器学习极具挑战性。联合学习由多轮培训组成。在每一轮训练中,聚合服务器基于规则将全局模型分发给所选择的用户。然后,用户在其本地数据集上训练本地模型并将其上载到服务器,并且聚合服务器执行模型聚合以获得新的全局模型。虽然Federated Learning会在本机保留敏感的训练数据,但它仍会面临安全性风险。

2024-11-03 19:15:21 1099

原创 PS-FedGAN: An Efficient Federated Learning Framework With Strong Data Privacy 联邦学习阅读

联邦学习提供了一个高效的框架,用于分布式和协同学习,同时保护用户数据隐私。作为一个新兴的人工智能领域,FL的充分潜力必须有效地应对众多挑战,包括数据分布的异质性、数据隐私考虑以及通信效率,尤其是在物联网(IoT)系统的边缘设备上。随着物联网设备的广泛部署,如智能穿戴设备、移动设备和个人数字助手,每秒都会生成大量数据,从而支持协同机器学习以提高效用。目前,许多全球机器学习模型(如分类器)已从丰富的用户生成数据中受益,并在许多物联网系统平台上得到实现。

2024-11-02 18:20:54 1906

原创 《PVD-FL: A Privacy-Preserving and Verifiable Decentralized Federated Learning Framework》去中心化的联邦学习

FL仍然存在许多挑战。首先,FL中存在隐私问题,因为全局模型和局部更新也可能泄露数据信息。一方面,原始数据可以通过在几轮中观察局部更新来准确地恢复。另一方面,通过利用连续全局模型之间的差异,对手参与者也可以推断某个训练轮中的数据属性和成员关系,这极大地威胁了用户的隐私。第二,FL中训练的完整性往往被忽视,例如,“懒惰”的参与者或中心可能由于其有限的计算资源而不完整地执行规定的协议,这将导致模型精度下降。此外,在集中式FL中,很难判断一个中心是否可信,也很难找到一个被所有参与者信任的中心。

2024-10-24 17:26:53 2091

原创 SVCA: Secure and Verifiable Chained Aggregation for Privacy-Preserving Federated Learning 联邦学习文献阅读

SVCA方案是一个用于联邦学习中的安全验证和数据聚合方案,旨在确保数据在传输和聚合过程中保持隐私性和完整性。公共设置和参数生成所有参与方先进行公共参数的设置,生成安全参数和随机向量对等,确保后续步骤中的数据安全和一致性。数据分组和分发用户被随机分成不同的组,每个组会选择一个中继用户作为代表,负责组内数据的传递和聚合。中继用户汇总每组的用户数量并发送给聚合服务器,启动数据聚合流程。承诺和掩码聚合聚合服务器生成随机掩码和承诺值,并将这些值发送给用户,确保在后续的步骤中数据可以被验证。

2024-10-16 20:26:13 1048

原创 《Preserving Privacy and Security in Federated Learning》中的加密算法

首先先定义基础的欧几里得和模反运算定义公私钥的生成,先规定p=11,q=13(相质的素数),通过计算可得,mu1=mu=modinv(lcm,n)=modinv(L(pow(g,lcm,n**2),n),n),所以生成了公钥pk(n,g)(g=n+1),私钥sk(lcm,mu,n)

2024-10-11 11:47:31 232

原创 联邦学习阅读《Preserving Privacy and Security in Federated Learning》

联邦学习是一种用来大规模分布式深度学习模型的框架,每轮训练,中央服务器将全局模型给分给随机选中用户,用户本地使用全局模型训练,训练后的本地模型交还给服务器,服务器对于所有的本地模型进行聚合平均生成新的全局模型。本文主要提出了一个可行的解决联邦学习安全性的方案:面对恶意用户的投毒攻击,和保护诚实用户的隐私(例如防止从用户上传的本地模型反推出用户隐私数据),提出了一个兼顾两者的框架。

2024-10-07 16:19:02 1909

原创 联邦学习阅读《Communication-efficient federated learning》

FL使得边缘设备写作训练ML模型,无需共享他们的私人数据, FL要求设备能够迭代的更新他们的参数,因此FL的效率不仅仅依靠训练ML模型的速度,还包括ML参数传递的时间。因此传播速度是影响FL效率的关键因素,在此款加下,本文设计出了一种概率设备选择的方案,能够显著提高收敛速度和训练损失的设备可以有更高的可能性被选择用来ML模型传输,该方案采用了量化的方法减少设备之间交换模型参数的量,并且开发了一种有效的无线资源分配方案。传统机器学习遇到的困难集中的机器学习需要从边缘设备手机训练数据,达到训练目的。

2024-10-01 11:15:57 714

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除