DAML:基于机器学习的数据聚合实用安全协议
1. 引言
机器学习(ML)的广泛应用,如微软的 ML、Azure ML、亚马逊的 Amazon ML、谷歌云 ML 和 IBM 的 Watson 等,极大地提升了移动边缘计算(MEC)中的数据聚合能力。这一进展在大规模参与者数据的分析上取得了重大突破,甚至改变了数据收集方法。然而,基于 ML 的数据聚合仍给参与者带来了隐私风险。
具体而言,ML 使聚合器能够从参与者设备上的本地 ML 模型收集临时参数更新,而非精确数据,以更新全局模型。例如,互联网用户将本地 ML 对其在线数据的输出发送给互联网公司,用于训练推荐系统以预测用户未来兴趣;医院和政府组织向世界卫生组织提供健康数据的本地 ML 参数更新,以更新新的诊断模型;金融公司聚合交易历史的本地 ML 参数更新,以改进欺诈检测方案。尽管这些参数更新包含的信息远少于参与者的私人数据,但参与者仍可能担心其中隐含的敏感信息。
为应对这一问题,一些科技公司,如苹果和谷歌,在参与者设备上实施了基于随机响应的系统,以保护隐私的方式收集数据。这些系统通过“随机响应”机制向参与者数据中引入噪声。然而,当聚合器收集大量含噪数据时,仍能准确估计参与者的数据,因此这些系统的隐私保护能力有限。
同时,学术界也提出了多种方法,主要分为基于安全多方计算、用餐密码学家网络、同态加密和差分隐私的研究。但基于安全多方计算和用餐密码学家网络的方法存在较大的通信开销,因为参与者需要与他人共享加密数据向量;同态加密的研究要么面临繁重的计算开销,要么依赖可信第三方;差分隐私协议相对轻量级,但忽略了恶意用户在算法执行过程中故意退出的可能性。近期研究虽解决了参与者退出问题,但仍易受恶意消息攻击,即恶意参与者发
超级会员免费看
订阅专栏 解锁全文
38

被折叠的 条评论
为什么被折叠?



