联邦学习网络性能研究
1. 联邦学习概述
联邦学习是一种去中心化的机器学习框架,在这个框架中,边缘节点会训练各自的本地模型,然后将更新后的权重发送给服务器。服务器把收到的各种本地更新权重进行整合,再将聚合后的模型发回边缘节点进行进一步训练,这个过程会一直持续,直到达到收敛状态。
1.1 联邦学习的优势
- 数据隐私保护 :数据存放在本地边缘设备,服务器不会看到原始数据集,避免了数据泄露风险,尤其适用于医院等对数据隐私要求高的场景。例如,多家医院可以在不共享患者记录等训练数据的情况下,协作开发机器学习模型。
- 降低通信成本 :网络中只传输更新后的权重,而非原始数据集,减少了数据传输量,从而降低了通信成本。
1.2 相关研究进展
| 研究内容 | 研究成果 |
|---|---|
| 网络流量联邦学习极限学习机模型分析本地网络流量数据 | 比基准模型有更高的准确性 |
| 随机模型、优化模型和微分方程对联邦学习网络进行优化建模 | 随机模型解决不确定性和可变性数据问题,确定性模型解决收敛和稳定性挑战 |
| 基于联邦学习和Wasserstein生成对抗网络的内容流行度预测隐私保护方案 | 提高缓存命中率,解 |
超级会员免费看
订阅专栏 解锁全文
846

被折叠的 条评论
为什么被折叠?



