联邦学习是机器学习框架,能有效帮助多个参与方在满足用户隐私保护、数据安全和国家法规的要求下,进行数据使用和机器学习建模。
机器学习涉及(神经网络、逻辑回归、线性回归)
联邦学习的分类:
- 横向联邦学习本质是样本的联合,适用于参与者间业态相同或相近,但客户不同(特征重叠多,客户重叠少)
- 纵向联邦学习本质是特征的联合,适用于用户重叠多,特征重叠少。
- 迁移联邦学习,参与方之间特征和样本重叠都很少。
联邦学习涉及技术:同态加密、秘密共享、差分隐私、基于硬件的TEEE
- 联邦学习框架:FATE 机器学习算法:LR、GBDT、DNN 隐私计算技术:同态加密、秘密共享
- 联邦学习框架:PaddleFL机器学习算法:LR、DNN隐私计算技术:同态加密、秘密共享、差分隐私
- 联邦学习框架:TensorFlow Federated机器学习算法:LR、DNN隐私计算技术:差分隐私
- 联邦学习框架:Pysyft机器学习算法:LR、DNN隐私计算技术:同态加密、秘密共享、差分隐私
- 联邦学习框架:Cryp Ten机器学习算法:LR、DNN隐私计算技术:秘密共享
详细内容见《深入浅出 隐私计算》 李伟荣
本文探讨了联邦学习的基本概念,包括横向、纵向和迁移联邦学习的区别,以及常用的机器学习算法如LR、GBDT和DNN在各框架中的应用。重点介绍了隐私计算技术如同态加密、秘密共享和差分隐私在保障数据安全和用户隐私的同时,如何在FATE、PaddleFL、TensorFlowFederated等框架中实现。
205

被折叠的 条评论
为什么被折叠?



