图隐私论文速递:Data Poisoning Attacks to Local Differential Privacy

本文简述了Adam Smith和Neil Gong研究组在SP2021和Usenix Security 2021发表的两篇关于本地差分隐私的攻击论文,探讨了如何通过恶意用户操纵数据导致统计结果偏差。研究可以扩展到不同类型的LDP,并可能启发对图差分隐私的攻击方法研究。

论文概况

今天简要介绍两篇本地差分隐私攻击的论文,分别发表于SP2021和Usenix Security 2021上,分别是Adam Smith和Neil Gong研究组的成果,都是大佬的成果,差不多时间在arxiv上发布。

在线版本如下:

Manipulation Attacks in Local Differential Privacy
Albert Cheu, Adam Smith, Jonathan Ullman

Data Poisoning Attacks to Local Differential Privacy Protocols
Xiaoyu Cao, Jinyuan Jia, Neil Zhenqiang Gong

在这里插入图片描述

在这里插入图片描述

主要创新

这两篇论文主要是在本地差分模式下,加入若干少量的恶意用户,通过添加伪造的数据,使得中心服务器的统计结果出现偏差。都是不错的成果,这些成果一方面可以扩展到不同类型的LDP上,攻击不同应用领域的LDP,一方面可以提高敌手的能力,设计更强的攻击模型。

启发

能否将这个方法移植到图差分隐私中,图差分分为点差分和边差分,如果对于这两种差分,可以设计出实用价值的攻击方法,也是不错的。此外,有没有其他模式的攻击?

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值