论文学习笔记 MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples

针对机器学习模型隐私泄露,MemGuard首次在黑盒环境下,通过正式的utility-loss抵御成员推理攻击,提出噪声向量算法及解析解,实验证明其有效性与优越性。

论文学习笔记 MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples

背景

文章: Membership Inference Attacks Against Machine Learning Models. IEEE Symposium on Security and Privacy 2017: 3-18
这篇文章关注机器学习模型的隐私泄露问题,提出了一种 成员推理攻击 :给出一条样本,可以推断该样本是否在模型的训练数据集中 —— 即便对模型的参数、结构知之甚少,该攻击仍然有效。
出发点: 机器学习模型在其训练数据和初次遇见的数据上的 表现往往不同 ,可据此 推断某条数据是否在其训练数据集中

成员推理攻击—攻击方式

基本思想: 若已知目标模型的训练集,那么对于样本 (x,y) ,设目标模型的输出为预测向量y ̂ , 根据其是否在目标模型的训练集中,可以 构建 ( y, y ̂ ,in ) ( y, y ̂ ,out ) , y ̂ 作为 feature in out 作为
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值