机器学习安全与图分析:保障数据安全与解决实际问题
在当今数字化时代,机器学习和图分析在各个领域发挥着重要作用。然而,它们也面临着诸多安全挑战和实际应用问题。本文将深入探讨机器学习的安全威胁,以及如何将图分析应用于实际问题的解决。
机器学习安全威胁
人工智能(AI)系统面临着各种攻击,这已成为现实。研究人员能够通过修改医疗保健领域AI系统使用的图像的一小部分,欺骗系统认为存在健康问题,反之亦然。图像识别技术也容易受到多种方式的欺骗。此外,还可以从机器学习(ML)模型中获取个人详细信息,这增加了安全风险。
评估基于ML的系统的安全风险的主要困难在于我们难以确切了解训练模型内部的具体内容。大多数模型(包括神经网络使用的模型)都难以理解,因此无法保证训练好的模型能抵御某种逆向工程攻击。ML算法同样容易受到不同类型的攻击。
为了更深入地了解ML安全问题,可以参考相关资料,如EvadeML项目(https://evademl.org),该项目旨在研究如何使ML方法在面对对手时更具鲁棒性。接下来,我们将介绍两种攻击类型及其工作原理:决策时攻击(针对模型)和训练时攻击(针对算法,通常称为中毒攻击)。
成员推断攻击
成员推断攻击是一种黑盒攻击,用于确定目标模型是否使用监督学习方法对给定的部分记录进行了训练。这种攻击利用机器学习的对抗性应用,训练另一个ML系统来对初始系统的预测进行分类。如今,像亚马逊、谷歌、微软和BigML等大型云提供商提供的机器学习即服务(MLaaS)也容易受到此类攻击。
这种攻击的基本思想是向目标模型发送查询,并将其预测结果输入到对抗系统中。最终输出将表明查询数据是否是训练数据集的一部分。发送查