- 博客(113)
- 收藏
- 关注
原创 15. PPML - 隐私保护机器学习综述 - 《Towards Efficient Privacy-Preserving Machine Learning: A Systematic Review》
本文主要记录了来自北京大学和蚂蚁集团发表在 archive 上的论文《Towards Efficient Privacy-Preserving Machine Learning: A Systematic Review from Protocol, Model, and System Perspectives》,相应的论文推荐仓库放在了上。
2025-12-12 21:21:50
746
原创 Rubbish 001 - 《BlindTuner: On Enhancement of Privacy-Preserving Fine-Tuning of ...》
本文介绍 Prajwal Panzade 等人的《BlindTuner: On Enhancement of Privacy-Preserving Fine-Tuning of Transformers Based on Homomorphic Encryption》。恕我是土狗🐶,我也没有看出这篇文章在算法层面的创新性,文章的实验设计有很多漏洞,因此这篇博客仅作简单记录。
2025-12-10 20:16:13
409
原创 14. AHE - 近似同态加密综述 - 《From accuracy to approximation: A survey on approximate homomorphic ...》
本文主要记录近似同态加密最新研究进展,参考文献为Weinan Liu、Lin You、Yunfei Shao 等人的《From accuracy to approximation: A survey on approximate homomorphic。
2025-12-10 14:45:52
1046
原创 16. CryptoFace - 密态推理入门 - 《CryptoFace: End-to-End Encrypted Face Recognition》
和现有方法的区别主要流程离线阶段:客户端生成公钥并对注册图像加密,然后连同相应的身份一起发给服务器提取加密特征。在线阶段:客户端对验证图像进行加密,然后连同相应的身份一起发给服务器提取加密特征。服务器计算匹配函数并将加密后的匹配结果返回给客户端解密。
2025-12-01 17:43:18
1005
原创 13. MULTPARCONV - 编码打包 - 《 Low-Complexity Deep Convolutional Neural Networks on Fully ...》
本文主要记录 HE for ML 中的编码打包算法,参考文献为 Eunsang Lee、Joon-Woo Lee、Junghyun Lee 等人的《Low-Complexity Deep Convolutional Neural Networks on Fully Homomorphic Encryption Using Multiplexed Parallel Convolutions》。低效的数据打包糟糕的参数选择密文卷积训练收敛参数优化。
2025-12-01 10:02:20
561
原创 12. 同态加密基础研究阶段性总结
既然同态加密支持在密文上执行任意计算,那为什么不能执行加解密计算呢?自举就是在明文双重加密的状态下,解内层密且保留外层加密的过程,从而将旧密文转为新密文,有效降低了噪声。假设有两对公私钥pk1sk1pk1sk1和pk2sk2pk2sk2,用公钥pk1pk_1pk1加密明文xxx得到Encpk1xEncpk1x用新密钥加密旧密文:使用公钥pk2pk_2pk2对密文二次加密得到。
2025-11-28 15:43:22
868
原创 9. CKKS - 近似计算 - 《Homomorphic Encryption for Arithmetic of Approximate Numbers》
借鉴致远的文章学习同态加密,本文主要记录同态加密中近似计算思想,参考文献为 Jung Hee Cheon,Andrey Kim,Miran Kim 和 Yongsoo Song 的《Homomorphic Encryption for Arithmetic of Approximate Numbers》。传统的同态加密方案依赖于解密时的模运算来消除噪声。CKKS方案则截然不同:作者将噪声当作近似计算中固有的、可接受的误差。其核心思路是,只要噪声幅度远小于明文,便不会破坏有效数字的精度。为实现这一点,方案在加
2025-11-25 21:00:57
267
原创 8. GSW - Flatten - 《Homomorphic Encryption from Learning with Errors: Conceptually-Simpler,...》
借鉴致远的文章学习同态加密,本文主要记录同态加密中Flatten操作,参考文献为 Craig Gentry,Amit Sahai,Brent Waters 的《Homomorphic Encryption from Learning with Errors: Conceptually-Simpler, Asymptotically-Faster, Attribute-Based》。这篇文章主要实现了理论上的创新,在实际应用中仍存在效率瓶颈。下面介绍全同态加密的历史发展流程以及本文的针对性问题:下面简单描述现
2025-11-24 16:59:32
998
原创 7. Bra12 - SEAL基础算法 - 《Fully Homomorphic Encryption without Modulus Switching from Classical GapSVP》
借鉴致远的文章学习同态加密,本文主要记录无需自举的层次同态加密流程,参考文献为 Zvika Brakerski 的《Fully Homomorphic Encryption without Modulus Switching from Classical GapSVP》,这篇文章是SEAL库所使用的基础算法。下面介绍全同态加密的历史发展流程以及本文的针对性问题:(n/logγ) 。同态性(LLL-homomorphism)对于任意深度为 LLL 的电路,同态方案解密失败的可能性忽略不计,即可以同态计
2025-11-17 11:10:20
743
1
原创 6. BGV12 - HElib基础算法 - 层次同态加密 - 《(Leveled) Fully Homomorphic Encryption without Bootstrapping》
借鉴致远的文章学习同态加密,本文主要记录无需自举的层次同态加密流程,参考文献为Zvika Brakerski、Craig Gentry和Vinod Vaikuntanathan的《(Leveled) Fully Homomorphic Encryption without Bootstrapping》,这篇文章是HElib库所使用的基础算法。下面介绍全同态加密的历史发展流程以及本文的针对性问题:(λ3)。② 自举操作的内在成本高。自举需要同态地执行解密函数,解密函数本身的复杂度是Ω(λ)\Omega(\la
2025-11-14 14:17:48
726
原创 5. BV11-密钥切换与模切换-《Efficient Fully Homomorphic Encryption from (Standard) LWE》
借鉴致远的文章学习同态加密,本文主要记录密钥切换与模切换流程,参考文献为Zvika Brakerski 和Vinod Vaikuntanathan的《Efficient Fully Homomorphic Encryption from (Standard) LWE》,这篇文章的针对性问题如下:IND-CPA安全是指攻击者即使能够自由加密任何他选中的明文,也无法区分两个特定明文的加密结果。下面介绍同态加密方案的CPA安全性:在证明CPA安全时,需要通过一个挑战者(Challenger)和攻击者(Advers
2025-11-12 19:45:08
754
3
原创 3. 同态加密相关数学基础补充
借鉴学习同态加密,本文主要补充同态加密相关数学基础,记录在阅读同态加密相关论文时所涉及的数学基础。由于根据论文进行补充,知识是碎片化的,章节之间不一定有逻辑关联。
2025-11-06 17:17:04
922
原创 4. LWE基础知识综述《The Learning with Errors Problem》
本文摘要: 《基于LWE的容错学习加密基础》系统介绍了Learning with Errors(LWE)问题的基本框架与算法分析。文章从LWE的参数设置(m个样本、n维密文、模数q、误差分布χ)出发,将问题分为Search LWE(求解密文s)和Decision LWE(判断样本来源)两类。重点分析了Search LWE的三种求解方法:极大似然估计(复杂度2^O(n logn))、独热向量统计法(需指数级样本)和分块线性组合法(折衷方案)。特别探讨了LWE与格问题的规约关系,证明带高斯样本提示的BDD问题可
2025-11-03 16:08:15
1078
原创 2. 格(Lattice)基本概念
借鉴致远的文章学习同态加密,本文主要记录格密码相关基础,学习教程见Steven Yue博客的前四章。在实数空间中画任意一个超球面,则球面中所包含的格点数 ≈ 该区域的体积 / 格的行列式 = 格的密度。其中,超球面的体积越大,越接近真实密度。λn;也有论文指出,若加入高斯噪声,噪声大小最好设置在∥r∥≈ηϵ≤(logn)⋅λn\lVert r \rVert \approx \eta_\epsilon \leq (\log n) \cdot \lambda_n∥r∥≈ηϵ≤(logn)⋅λn,其中
2025-10-24 22:11:07
335
原创 1. 密码学数学基础
本文总结了密码学所需的数学基础,主要涵盖代数系统、素数与模运算三部分内容。在代数系统部分,介绍了群、环、域等基本概念及其性质,特别强调了Abel群和循环群在密码学中的重要性。素数部分讲解了因子的性质、素数和互素数的定义,以及最大公因子的计算方法。模运算部分详细阐述了同余关系、同余类及其运算特性,为理解密码学中的加密算法奠定数学基础。
2025-10-15 14:12:03
1017
原创 READ-2365 Byzantine-Robust Learning on Heterogeneous Datasets via Resampling
针对本文所提出的攻击,mimic attack只是针对基于几何中值的聚合方式提出的,不具有推广性;针对本文提出的防御方法,防御时设置同一个梯度被采样的次数上限的做法,很容易就可以被破解:攻击者在实施共谋攻击后,使用噪声扰动就可以绕过防御,攻击者甚至可以共谋设置噪声加入的方式,使得所有恶意客户端的噪声相加后相互抵消。
2024-01-24 16:47:21
621
原创 READ-2364 Deep Model Poisoning Attack on Federated Learning
出发点(1)交替最小化:交替训练一小批中毒数据和干净数据,平衡主任务和对抗任务(2)正则化项:使得恶意模型的更新量与良性客户的更新量相似挑战:计算Hessain矩阵需要耗费大量的时间,但服务器可能会剔除不能按时回复的客户端。
2024-01-24 16:47:13
720
1
原创 READ-2363 Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor Attacks in Federated
出发点:后门容易在之后的通信过程中被消除,因此需要嵌入能够与良性更新共存的后门设计:本文在利用恶意数据计算完恶意模型后,恶意客户端需要利用本地的良性数据模拟良性客户端贡献对攻击的消除作用,从而保证在未来通信过程中,攻击可以持久存在。
2024-01-24 16:47:03
640
原创 READ-2362 Multi-metrics adaptively identifies backdoors in Federated learning
本文提出了一种融合多度量指标的防御策略,从不同角度衡量客户端的恶意性。
2024-01-24 16:46:38
729
原创 READ-2361 Neurotoxin: Durable Backdoors in Federated Learning
相比于PGD, Neurotoxin将中毒更新投影到良性更新不常使用的参数空间上,使得后门攻击的持久性更强。
2024-01-24 16:46:27
639
原创 READ-2360 Securing Federated Learning against Overwhelming Collusive Attackers
优点基于相关性观察,本文利用图论的方法进行恶意检测,较好的避免了假阳的现象不足在数据non-IID场景下可以观察到文中所提到的相关性关系,在IID场景下是否仍然成立?
2024-01-23 13:23:35
439
原创 READ-2359 FRL: Federated Rank Learning
本文基于Supermask思想提出了一种新的FL框架。在FRL中,不同客户端共同寻找使得子网路性能最佳的Supermask,而非共同训练全局模型。在该过程中,由于客户端与服务器之间只传递全局模型中边的排名,大大缩减了恶意客户端的攻击空间,同时降低了客户端的通信开销。
2024-01-23 13:23:19
544
原创 READ-2358 Defending against Poisoning Attack in Federated Learning Using Isolated Forest
缺点①需要辅助数据集训练辅助模型②异常检测的效果受辅助模型的影响③孤立森林不适用于高维模型优点①使用孤立森林进行异常检测,可以更好的减少假阳和假阴的情况②孤立森林算法具有线性时间复杂度,适用于客户端数量较多的情况,并且由于每棵树都是互相独立生成的,因此可以部署在大规模分布式系统上来加速运算。
2024-01-23 13:22:58
553
原创 READ-2357 Shielding Federated Learning Robust Aggregation with Adaptive Client Selection
已有的防御措施要么选择所有客户端参与通信,要么选择其中的一个随机子集,这种非理性的客户端选择策略即使在之前迭代中已识别出恶意更新,也可能会不断选择恶意客户端参与聚合,导致收敛缓慢,并浪费通信和计算资源。因此,服务器需要自适应地选择客户端。在女巫攻击场景下,使用欧几里德距离作为评价指标时,良性更新之间的相似度达到了预期的水平;
2024-01-23 13:22:42
469
原创 READ-2356 Long-Short History of Gradients is All You Need: Detecting Malicious and Unreliable Client
无目标攻击(1)符号翻转攻击的会使恶意客户端与所有客户端的梯度中值有很大的角度偏差(2)加性噪声攻击者和不可靠客户端具有类似的短期历史更新,但可以区别于其他客户端,可以先将上述两类客户端与其他客户端区分开来,又因为加性噪声攻击者的梯度远离于不可靠的客户端的梯度,因此可以进一步分离。有目标攻击:有目标攻击使全局模型指向一个特定的收敛点,这使得攻击者对短期噪声有很强的抵抗力,而在整个历史上容易辨识不可靠客户端:从短期历史更新来看,不可靠客户端更新离良性客户端更新更远。
2024-01-23 13:22:30
427
原创 READ-2355 Byzantine-robust Federated Learning through Collaborative Malicious Gradient Filtering
从客户端更新的大小上看,小幅度的梯度对训练的危害较小,而大幅度的梯度是恶意的,因此应该执行宽松的下阈值和严格的上阈值;从客户端更新的方向上看,梯度向量的元素符号分布可以为检测高级模型投毒攻击提供有价值的信息。
2024-01-23 13:22:10
520
原创 READ-2354 FLCert: Provably Secure Federated Learning Against Poisoning Attacks
本文提出了可认证的安全防御方法,通过多全局模型的模式进行训练与预测。问题由于分组的作用,该方法对模型性能存在一定损失,没有达到保真度的要求启示(1)联邦学习安全防御技术中存在的挑战之一:已有的防御方法没有对投毒攻击给出可证明的安全保证(2)如何充分利用客户端数据建立多个全局模型,同时不增加客户端计算开销是一个有趣的问题未来在推导认证安全级别时,FLCert没有利用任何关于学习任务或基本FL算法的先验知识。在推导经认证的安全保证时涉及这样的先验知识是一个有趣的未来工作。
2024-01-23 13:21:50
506
原创 READ-2353 TDFL: Truth Discovery Based Byzantine Robust Federated Learning
在诚实大多数的场景下,服务器先利用客户端之间的成对相似度去除恶意客户端;在拜占庭大多数的场景下,服务器利用客户端之间的相似度构造图,并将最大团作为良性簇。然后,服务器利用客户端模型与全局模型之间的距离设置客户端的聚合权重。
2024-01-23 13:21:27
571
1
原创 READ-2352 RVFR: Robust Vertical Federated Learning via Feature Subspace Recovery
本文针对VFL的安全问题进行防御,从恢复数据底层特征的角度抵御攻击。该方法未达到保真度的要求,对模型性能存在影响侵犯了客户端数据的隐私性本文给我的启发是:在处理中毒输入时,除了处理原始数据,还可以从数据特征入手,但是这两种思路都存在隐私性的问题。
2024-01-23 13:21:14
486
原创 READ-2351 Byzantine-robust Federated Learning through Spatial-temporal Analysis of Local Model Updat
从空间维度上看,恶意客户端会显示出可识别的模式,这些空间特征可以潜在地用于检测和去除异常更新;从时间维度上看,在cross-device FL中,服务器每轮仅选择部分客户端进行通信,参与其中的恶意客户端数量则更是动态且高度可变的,所以还需要观察客户端的时间特征,如果某一客户端的当前更新明显偏离以前的情况,这可能说明参与通信的客户端状态发生了变化。
2024-01-23 13:20:57
485
原创 READ-2350 BayBFed: Bayesian Backdoor Defense for Federated Learning
论文名称BayBFed: Bayesian Backdoor Defense for Federated Learning作者Kavita Kumari, Phillip Rieger, Hossein Fereidooni, Murtuza Jadliwala, Ahmad-Reza Sadeghi来源arXiv 2023领域Machine Learning - Federal learning - Security – Backdoor attack问题已有
2024-01-23 13:20:31
723
原创 READ-2349 DeepSight: Mitigating Backdoor Attacks in Federated Learning Through Deep Model Inspection
对于每一张图片,神经网络的目的均是使对应标签的预测概率最大化,当使用另一个具有不同标签的样本进行训练时,前一个图像的预测向量也会受到影响。当某个类别的样本经常出现时,模型预测将更偏向于对该标签的预测。因此,当所有客户端都从相同的全局模型出发时,具有相似数据的客户端将试图为其数据样本实现相似的预测,因此他们将以相似的方式调整参数,从而导致相似的模型更新,进而两个客户端模型与全局模型的差距相似。
2024-01-23 13:20:17
643
原创 READ-2348 Security-Preserving Federated Learning via Byzantine-Sensitive Triplet Distance
若评价客户端恶意性的函数仅基于局部模型之间的距离来计算可能丧失了部分信息。因此,可以使用三元组距离设计评价函数,同时对比全局模型与其他两个客户端模型之间的距离。
2024-01-23 13:20:05
424
原创 READ-2347 Local model poisoning attacks to byzantine-robust federated learning
本文首次提出了模型投毒攻击,以及相应的简单防御。
2024-01-23 13:19:21
459
原创 READ-2346 XMAM:X-raying Models with A Matrix to Reveal Backdoor Attacks for Federated Learning
观察发现,模型softmax层的输出在恶意更新和良性更新之间表现出可区分的模式。
2024-01-23 13:18:52
492
原创 READ-2345 FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated Learning
为了增强模型自身的稳健性,良性客户端可以在数据存在噪声的情况下进行训练,让模型学习到更稳健的特征,提高模型的泛化性。
2024-01-22 18:55:50
573
3
原创 READ-2344 Better Together Attaining the Triad of Byzantine-robust Federated Learning via Local Updat
在CNN中,最大池化层可疑在降低特征维度的同时提取最活跃的特征。类似的,我们可以通过提取客户端更新最活跃的特征来放大客户端更新的恶意和善意,这样做的好处在于:①由于提取了最多激活的特征,因此在放大后客户端更新变得更加可区分;②通过平移不变性来增强保真度;③特征空间的显著降维可以极大地提高检测效率。
2024-01-22 18:52:56
409
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅