智能医疗与气体传感:对抗攻击与纳米复合传感器的研究进展
智能医疗中对抗机器学习攻击的研究
在智能医疗领域,机器学习模型的安全性至关重要。研究人员对基于卷积神经网络(CNN)的图像分类模型进行了实验,以评估对抗攻击对模型性能的影响。
- 攻击对模型性能的影响
- 在实验中,使用FGSM攻击对模型进行测试。对于“良性”图像,真阳性率仅为10%(15张图像),而假阳性率高达90%(135张图像);在“恶性”部分,假阴性率为88%(132张图像),真阴性率为12%(18张图像)。
- 通过计算模型的准确率发现,攻击前模型的准确率为88%,而遭受攻击后,模型的准确率骤降至11%。这表明FGSM攻击显著降低了模型的性能和准确性。
| 图像类型 | 真阳性率 | 假阳性率 | 假阴性率 | 真阴性率 |
|---|---|---|---|---|
| 良性 | 10%(15张) | 90%(135张) | - | - |
| 恶性 | - | - | 88%(132张) | 12%(18张) |
超级会员免费看
订阅专栏 解锁全文
924

被折叠的 条评论
为什么被折叠?



