文章目录
一、论文相关信息
1.论文题目
Intriguing properties of neural networks
2.论文时间
2014年
3.论文文献
https://arxiv.org/abs/1312.6199
二、论文背景及简介
深度学习因为其表达能力强而获得了成功,但也造成了其会学习到一些无法解释的结果,具有一些反常理的属性。一、单个高阶单位和随机线性组合的高阶单位之间没有区别,这表明,在神经网络的高层中,包含语义信息的是空间,而不是单个单元。二、深度神经网络学习的输入输出映射在很大程度上是不连续的,这造成了我们可以通过应用某种难以察觉的扰动使网络误分类图像,这种扰动是通过最大化网络的预测误差而发现的。
三、论文内容总结
- 提出了两个神经网络的有趣的特征—神经元的语义信息与神经网络的盲点
- 通过控制输入来最大化激活神经元,来获取神经元的语义信息
- 神经网络在添加较小扰动时,会使其分类错误
- 我们可以通过最大化分类错误率来获得扰动,其公式如下:
m i n c ∣ r ∣ + l o s s f ( x + r , l ) s . t . x + r ∈ [ 0 , 1 ] m min \ \ c|r|+loss_f(x+r,l) \\ s.t. \ \ x+r \in [0,1]^m min c∣r∣+lossf(x+r,l)s.t. x+r∈[0,1]m
- 可以通过L-BFGS来找到近似解
- 对抗样本是一种普遍现象,并不是由于模型的过拟合与特定的数据集的引起的,其具有泛化能力
- 对抗样本引入到训练过程中是可以提高模型的泛化能力
- 作者认为,扰动会在神经网络正向传播的过程中,不断地累加,直到最后变得很大,大到能够使其越过了分类边界。
- 作者认为,对抗样本时因为网络的离散性,才会出现的(后面的论文中与该观点持相反意见,其认为是网络的过度的线性才导致的对抗样本的出现)
附:如需继续学习对抗样本其他内容,请查阅对抗样本学习目录
四、论文所使用的符号及数据等信息
符号
x \ x x代表术语的图片, ϕ ( x ) \ \phi(x) ϕ(x)代表某一层的激活值。
数据集及模型
在MINST数据集下
一个简单的全连接层,使用Softmax分类器,把这个网络称为FC
在自动编码器上训练的分类器,把这个网络成为AE
在ImageNet数据集下
使用了AlexNet
在10MYoutube数据集下
无监督训练网络,称为QuocNet
参数
在MINST数据集实验中,使用了权重衰减,参数为 λ \ \lambda λ。在一些实验中,将MINST数据集分离为 P 1 和 P 2 \ P_1和P_2 P1和P2。
五、论文主要内容
该论文实际是描述了神经网络的两个特征
1、第一个特征 神经元的语义信息
论文中所提到的神经网络的第一个特征是神经网络中各个单元的语义信息。
在之前的工作中,通过控制输入图像来最大化激活给定的单元,来分析每个单元的语义信息。而这些工作也显示出,最后一层layer是分类的基础,对语义信息是最有帮助的。他们,对激活单元 ϕ ( x ) \ \phi(x) ϕ(x)的随机投影,发现这样并没有表现出语义信息。这也就表明,神经网络并不是通过坐标系来构建语义信息。一般来说,是整个激活空间包含了语义信息的主体,而并非单个的单元。 在空间旋转后,向量表示仍然是稳定的,也就是说是整个向量包含着语义信息,而并非向量中的某个单元。
在下文中,作者通过实验,进行了说明。
以神经网络的某一层i为例,我们通过改变输入来找到能够最大化激活该层的输入图像 x ′ \ x' x′,我们已知第i层的隐向量为 e i \ e_i ei。可以将

本文探讨了神经网络的两大奇特属性:神经元的语义信息与神经网络的盲点,即对抗样本。揭示了神经网络如何理解图像,以及为何会因微小扰动而误判,对深度学习模型的稳定性和泛化能力提出挑战。
最低0.47元/天 解锁文章
941

被折叠的 条评论
为什么被折叠?



