支持向量机在对抗环境中的安全评估
在机器学习领域,分类器的安全性至关重要。随着机器学习在各个领域的广泛应用,其面临的安全威胁也日益增多。本文将深入探讨支持向量机(SVM)在对抗环境中的安全评估问题,包括潜在攻击的分类、安全评估框架以及针对SVM的逃避攻击等内容。
潜在攻击的分类
针对模式分类器的潜在攻击可以根据三个主要特征进行分类:攻击对分类器的影响类型、攻击导致的安全违规类型以及攻击的特异性。
-
攻击对分类器的影响类型
- 因果性攻击 :旨在破坏学习过程,可能会操纵训练和测试数据。例如,攻击者可以在训练集中引入带有恶意特征的良性PDF,误导恶意软件检测器将恶意PDF错误分类为良性。
- 探索性攻击 :针对分类阶段,仅影响测试数据。例如,攻击者可以通过查询恶意软件检测器,发现其用于识别恶意软件的属性,从而重新设计PDF以逃避检测。
-
攻击导致的安全违规类型
- 完整性违规 :攻击者试图获得对系统的未授权访问,例如使恶意样本被错误分类为合法样本。
- 可用性违规 :攻击者的目标是产生大量错误,包括假阴性和假阳性,从而影响系统的正常运行。
- 隐私违规 :攻击者可以从分类器中获取机密信息,例如在生物识
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



