移动边缘网络中的联邦学习:隐私、安全与应用
1. 隐私保护方案
在联邦学习(FL)中,保护参与者的数据隐私至关重要。以下是几种常见的隐私保护方案:
- 添加噪声与随机选择参与者 :在每个学习轮次中,聚合服务器随机选择一定数量的参与者来训练全局模型。被选中的参与者会采用高斯分布向训练好的模型添加噪声,然后再将参数发送给服务器。这样,恶意参与者无法通过共享的全局模型参数推断其他参与者的信息,因为他们不知道每一轮中谁参与了训练。
- 协作式深度学习框架 :为了避免服务器不可信带来的隐私威胁,引入了协作式深度学习框架。参与者不再上传完整的训练参数,而是明智地选择上传的梯度数量和从全局模型更新的参数数量。这种方法在参与者不共享所有训练参数的情况下,预测模型的准确率仍接近服务器拥有全量数据进行训练的情况。例如,对于MNIST数据集,参与者共享10%和1%的参数时,预测模型的准确率分别为99.14%和98.71%,而集中式解决方案(服务器拥有全量数据)的准确率为99.17%。但该方法在更复杂的分类任务上还需进一步测试。
| 数据集 | 共享参数比例 | 准确率 |
|---|---|---|
| MNIST | 10% | 99.14% |
| MNIST | 1% | 98.71% |
超级会员免费看
订阅专栏 解锁全文
4938

被折叠的 条评论
为什么被折叠?



