作者: 19届 lz
论文:《Intriguing properties of neural networks》
特性:
根据单元分析的各种方法,我们发现单个高级单元和高级单元的随机线性组合之间没有区别。它表明,在神经网络的高层中,包含语义信息的是空间,而不是单个单元。
给样本添加一些轻微的扰动,会导致神经网络模型错误分类,这些样本就称为对抗样本
相关工作
我们发现对抗样本相当鲁棒的,并且由具有不同层数、激活或在训练数据的不同子集上训练的神经网络共享。也就是说,如果我们使用一个神经网络来生成一组对抗样本,我们会发现这些示例对于另一个神经网络来说仍然很难正确分类,即使他们是用不同的超参数训练的。一组例子。这些结果表明,通过反向传播学习的深度神经网络具有非直觉特性和固有盲点,其结构以非显而易见的方式与数据分布相关。
Units of: φ(x)
传统的计算机视觉系统依赖于特征提取:通常单个特征很容易解释,例如颜色的直方图,或量化的局部导数。这允许人们检查特征空间的各个坐标,并将它们链接回输入域中有意义的变化。以前的工作中使用了类似的推理,试图分析应用于计算机视觉问题的神经网络。这些作品将隐藏单元的激活解释为有意义的特征。他们寻找能够最大化这个单一特征的激活值的输入图像
可以将上述技术正式表示为图像x’的视觉检查,这些图像满足(或接近最大可达到值):

其中 I 是网络未训练的数据分布中的一组保留图像,ei 是与第 i 个隐藏单元相关联的自然基向量。我们的实验表明,任何随机方向

本文探讨了神经网络的高级层中语义信息存在于空间而非单个单元的现象,以及对抗样本的鲁棒性。研究发现,对正确分类的输入添加微小扰动可生成对抗样本,这些样本在不同网络结构中仍能引发错误分类,揭示了深度学习模型的非直观特性和内在盲点。此外,对抗样本的生成挑战了模型的局部泛化能力,表明深度神经网络的平滑假设并不总是成立。
最低0.47元/天 解锁文章
1451

被折叠的 条评论
为什么被折叠?



