智能医疗视角下对抗性机器学习攻击的应对策略
1. 引言
机器学习助力多个行业,尤其是医疗行业,满足其不断增长的需求,并在自动化方面超越预期。它能简化行政流程,构建模型以快速高效地分析患者关键数据。据相关数据显示,92%的医疗解决方案更有效地推动了医疗设施的数字化服务。然而,当前的挑战在于如何运用新兴技术,如机器学习,以及更好地利用健康数据处理。
随着智能传感器、物联网应用和服务、先进无线通信技术以及人工智能的发展,智能医疗系统面临新的安全挑战,这影响了机器学习模型的性能。其中,对抗性攻击这种新的攻击维度可能会影响智能医疗环境中使用的机器学习分类器。对抗性攻击,也称为对抗性机器学习,是一种网络攻击,试图欺骗机器学习模型产生错误预测,导致模型故障。在智能医疗系统中,这种攻击非常危险,可能导致疾病检测错误和治疗方案错误,造成误诊。常见的医疗领域攻击大多针对医学影像数据,如 X 光、CT 扫描等,以改变预测的疾病。
本文旨在研究对抗性机器学习攻击对智能医疗系统,特别是机器学习分类器的影响。提出一种聚焦于快速梯度符号法(FGSM)攻击的方法,探讨如何将对抗性攻击应用于卷积神经网络(CNN),并研究其对网络性能的整体影响。主要贡献如下:
- 提出一种检测对抗性攻击的方法,以识别可能影响智能医疗系统的缺陷。该方法考虑训练和测试阶段的攻击,并展示它们如何误导系统。
- 使用真实世界的医学图像数据集测试系统。通过迁移学习,使用该数据集训练 VGG - 19 模型以正确分类图像。
- 对卷积神经网络(CNN)实施一种白盒攻击,即快速梯度符号法(FGSM)攻击,以研究其对模型的影响。
- 使用模型分类报告和测试数据的混淆矩阵评估对系统提出的攻击。
超级会员免费看
订阅专栏 解锁全文
1089

被折叠的 条评论
为什么被折叠?



