Membership inference attack (成员推理攻击)是一类机器学习模型的隐私泄漏攻击——即给出一条样本,推断该样本是否在模型的训练数据集中出现。其核心在于其提出的shadow learning技术。
总的来说,这类攻击的目标是训练一个attack model(攻击模型),输入一条样本,能够返回它是否属于target model(目标模型)的训练集。
为此,一般地,我们需要获取一些用于attack model训练的数据,也就出现了shadow learning。Shadow learning通过训练一系列shadow models,达到模拟目标模型(target model)的效果,从而可以用来获取attack model的训练集。
此前大部分的研究都需要获取模型的结构、训练数据集的分布等信息。这篇文章提出了一种条件更加relax的模型,能够适用于大部分机器学习模型。本文设计了feature vector用来训练attack model。
除此之外,文章还提出了两个对抗机制——dropout和model stacking,用来减少过拟合,同时提高模型的复杂度。
这种paper一般比较重视实验,这篇文章就由易到难的三种角度设计了三种adversary,并分别进行了实验和论证。