论文学习笔记 MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples
背景
•
文章:
Membership Inference Attacks Against Machine Learning Models. IEEE Symposium on Security and Privacy 2017: 3-18
•
这篇文章关注机器学习模型的隐私泄露问题,提出了一种
成员推理攻击
:给出一条样本,可以推断该样本是否在模型的训练数据集中
——
即便对模型的参数、结构知之甚少,该攻击仍然有效。
•
出发点: 机器学习模型在其训练数据和初次遇见的数据上的
表现往往不同
,可据此
推断某条数据是否在其训练数据集中
。
成员推理攻击—攻击方式
•
基本思想: 若已知目标模型的训练集,那么对于样本
(x,y)
,设目标模型的输出为预测向量y ̂
,
根据其是否在目标模型的训练集中,可以
构建
(
y,
y ̂
,in
)
或
(
y,
y ̂
,out
)
,
将y ̂
作为
feature
,in
和out
作为

针对机器学习模型隐私泄露,MemGuard首次在黑盒环境下,通过正式的utility-loss抵御成员推理攻击,提出噪声向量算法及解析解,实验证明其有效性与优越性。
最低0.47元/天 解锁文章
1417

被折叠的 条评论
为什么被折叠?



