对抗机器学习在5G通信安全中的应用与挑战
1. 对抗机器学习概述
随着机器学习在不同数据领域的应用日益广泛,以及机器学习算法在实际系统中的部署,了解机器学习在面对对手时的脆弱性变得至关重要。对抗机器学习应运而生,它是一个关键领域,旨在确保机器学习在受到对抗影响时仍能安全应用。
例如,通过API向公众或付费用户提供的机器学习应用,如Google Cloud Vision,提供基于云的机器学习工具来构建模型。这种在线服务模式引发了对不同机器学习算法(从计算机视觉到自然语言处理)的对抗输入的安全担忧。此外,自动语音识别和语音控制系统的底层机器学习算法的脆弱性也受到了研究。在自动驾驶领域,也有研究展示了对自动驾驶车辆的攻击,对手通过操纵交通标志来迷惑学习模型。
对抗机器学习中的操纵可能发生在训练、推理(测试)阶段,或两个阶段都有。在训练阶段,对手的目标是向训练数据提供错误输入(特征和/或标签),使机器学习算法无法得到正确训练。在测试阶段,对手的目标是向机器算法提供错误输入(特征),使其返回错误输出。基于对抗机器学习的攻击可分类如下:
- 测试阶段攻击 :
- 推理(探索性)攻击 :对手试图推断目标系统的机器学习架构,构建一个与原始架构功能相同的影子或替代模型。这可以是白盒或黑盒攻击,取决于对手是否能获取机器学习模型(如深度神经网络结构)。对于黑盒攻击,对手用大量样本查询目标分类器并记录标签,然后用这些标记数据训练一个功能等效的深度学习分类器,即替代模型。学习到机器学习功能后,对手可利用替代模型的推理结果进行后续攻击,如降低置信度或有针对性的错误分类。
- 成员推理攻
超级会员免费看
订阅专栏 解锁全文
48

被折叠的 条评论
为什么被折叠?



