- 博客(5)
- 收藏
- 关注
原创 差异私有联邦学习:客户端级别
提出了一种将dp保持机制整合到联邦学习中的算法,确保学习的模型不会显示客户端是否参与了分散训练。客户机的整个数据集受到保护,以防止来自其他客户机的不同攻击。
2024-09-27 16:43:31
2185
原创 联邦学习的挑战、方法和未来方向
本文讨论了联邦学习的独特特征和挑战,提供了当前方法的广泛概述,并概述了与广泛的研究社区相关的未来工作的几个方向。
2024-09-21 16:25:04
1560
原创 FedBCD:分布式特征的高效协同学习框架
提出了名为 Federated stochastic block coordinate descent(FedBCD)的协同学习框架,各方仅在每次通信时共享每个样本的单个值,而非模型参数或原始数据,且能持续进行本地模型更新而无需每轮迭代通信,所有原始数据和模型参数都保持本地,与集中训练的模型相比性能无损失,通过采用 FedBCD 可显著降低通信成本,并通过实验评估了 FedBCD 与其他替代协议的性能,还将算法应用于联邦迁移学习(FTL)以解决标记数据少和用户重叠不足的问题。
2024-09-15 09:40:36
1979
原创 FedAvg:分散数据下深度网络的高效通信学习
联邦学习(Federated Learning),让训练数据分布在移动设备上,通过聚合本地计算的更新来学习共享模型
2024-09-01 10:32:45
1139
2
原创 高效且安全的云辅助在线诊断服务的决策树分类
总结了 SDTC 方案的优点,包括保护诊断模型和用户数据的机密性、实现快于线性的分类速度以及在测试数据集中处理分类请求的高效性。提出未来的工作方向,包括设计用于在线诊断服务的隐私保护多标签分类方案以及改进诊断质量,如避免模型过拟合等。
2024-09-01 09:50:18
2180
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人