深度学习:从攻击到可视化及前沿趋势
1. 深度学习中的攻击与分类结果
在深度学习领域,对抗攻击是一个重要的研究方向。以Resnet18网络为例,通过不同的攻击方式可以得到不同的分类结果。
1.1 FGSM攻击
使用CIFAR10数据集,分别对标准训练的Resnet18网络和对抗训练的Resnet18网络进行FGSM攻击($\epsilon = 4/255$)。可以观察到,对抗图像在不同训练方式的网络下有不同的分类表现。
1.2 PGD攻击
对于ImageNet数据集,采用PGD攻击($\epsilon = 1/255$,20次迭代),同样对比标准训练和对抗训练的Resnet18网络的分类结果。
1.3 像素攻击(稀疏感知)
像素攻击最初是为了仅用差分进化(DE)扰动一个像素而提出的黑盒攻击方法。其目标是解决稀疏优化问题:
[
\begin{align }
&\max_{\eta} P_{adv}(x + \eta)\
&\text{s.t. } |\eta|_0 \leq d
\end{align }
]
其中,仅使用类的概率来进行攻击。该方法试图在修改像素数量限制为$d$的情况下,最大化对抗类的概率$P_{adv}$。输入图像用向量$x$表示,向量$\eta$有$d$个非零元素。对抗类可以是有目标的或无目标的。扰动被编码为一个由五个元素组成的数组:扰动的$xy$坐标和RGB值。
通过DE,在每次迭代中基于过去的候选者(父代)创建扰动向量的候选者(子代)群体。子代
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



