- 博客(2)
- 收藏
- 关注
原创 对抗攻击(白盒与黑盒攻击)
对抗攻击:通过对输入添加微小的扰动使得分类器分类错误。应用场景包括目前大热的CV和NLP方向,例如、通过对图片添加精心准备的扰动噪声使得分类错误,或者通过对一个句子的某些词进行同义词替换使得情感分类错误。(简单举个例子:就是图片识别分类 将图片输入卷积神经网络中可能会得到很好地分类效果,但是但我们加入一个微小的(人眼无法观察到的扰动),模型就有可能会遭受欺骗,从而造成分类结果的不准确,从而输出错误的结果。关于攻击的类型有很多种,从攻击环境来说,可以分为黑盒攻击、白盒攻击或者灰盒攻击。
2024-01-03 21:21:03
3593
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人