论文阅读 | NDSS19 | ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on ML

ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses
Membership inference attack (成员推理攻击)是一类机器学习模型的隐私泄漏攻击——即给出一条样本,推断该样本是否在模型的训练数据集中出现。其核心在于其提出的shadow learning技术。

总的来说,这类攻击的目标是训练一个attack model(攻击模型),输入一条样本,能够返回它是否属于target model(目标模型)的训练集。

为此,一般地,我们需要获取一些用于attack model训练的数据,也就出现了shadow learning。Shadow learning通过训练一系列shadow models,达到模拟目标模型(target model)的效果,从而可以用来获取attack model的训练集。

此前大部分的研究都需要获取模型的结构、训练数据集的分布等信息。这篇文章提出了一种条件更加relax的模型,能够适用于大部分机器学习模型。本文设计了feature vector用来训练attack model。

除此之外,文章还提出了两个对抗机制——dropout和model stacking,用来减少过拟合,同时提高模型的复杂度。

这种paper一般比较重视实验,这篇文章就由易到难的三种角度设计了三种adversary,并分别进行了实验和论证。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值