最近读的文章


Privacy Preserving Machine Learning: Threats and Solutions, 2018 IEEE Security and Privacy Magazine

一篇综述,老师说和我们打算写的比较接近的文,所以读读看。【写得挺差】

intro:本文旨在联立ml与安全

ml:ml流程:分为有/无/半监督

threats:要面临的威胁:

  1. Private Data in the Clear(保留了原始数据),
  2. Reconstruction Attacks(重建输入向量,需要保留原始数据在模型里并提供了白盒),
  3. model Inversion Attacks(逆向最像输入的样本均值,置信度重要),
  4. Membership Inference Attacks(推定训练集成员),
  5. De-anonymization (Re-Identification) (去匿名化,Netflix比赛样例)

Privacy-Preserving Machine Learning (PPML):多方协作上传训练集时如何保护隐私:

  1. Cryptographic Approaches(加密方式:homomorphic encryption, garbled circuits, secret sharing, secure processors:【同态加密,乱码电路,密钥共享,安全处理器】
  2. Perturbation Approaches(扰动方法:Differential Privacy (DP),Local Differential Privacy,Dimensionality Reduction (DR) :【差分隐私,本地差分隐私,维度降低

机遇与前景:大公司该如何保护屁民隐私

可读的ref:

  • Fingerprint Reconstruction: From Minutiae to Phase 【重建指纹】
  • Membership Inference Attacks Against Machine Learning Models 【推定成员】

Stealing Machine Learning Models via Prediction APIs, USENIX Security, 2016

intro:做的工作,Simple equation-solving model extraction attacks,path-finding algorithm for extracting decision trees, Model extraction attacks against models

背景:定义ml是种映射函数,输入输出都有些啥,介绍训练过程

Model extraction attacks:攻击影响因素

  1. Machine learning services(各家ml服务的不同之处,比如能自选自改模型吗,输出带置信度吗,用的啥模型
  2. Attack scenarios (攻击目的:逃避后续的查询费用,偷隐私,逃避检测
  3. Threat model in detail(可进行直接与间接查询,即能/否任意输入不论样本空间范围

Extraction with Confidence Values:有置信度的提取。如何评估攻击奏效程度,模型简介。

  1. Equation-Solving Attacks(算式计算型攻击:二元LR,多类LR

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值