卷积神经网络用的其实不是卷积运算,实际用的是互相关运算;互相关运算和卷积运算的区别在于对输入结果所加的权重系数的顺序不同而已,但由于神经网络本身就是训练参数的,所以两者的输出结果其实是一样的,而互相关运算相比卷积运算由于权重系数(卷积核)无需翻转,更加简单,所以实际的卷积网络都是基于互相关运算的;
互相关运算和卷积一维计算原理:
这里先从一维的开始介绍,方便大家理解;给定一维序列和一维序列
,
则互相关序列为:
其中的元素为:
本文介绍了卷积神经网络实际采用的互相关运算,而非传统意义上的卷积运算。两者区别仅在于权重系数顺序,但在神经网络中权重可训练,故互相关运算更简便。通过一维互相关和卷积运算的计算实例,阐述了它们的运算规则,并指出在神经网络中,由于权重可学习,互相关与卷积并无实质性差异。后续将探讨高维情况下的运算原理。
卷积神经网络用的其实不是卷积运算,实际用的是互相关运算;互相关运算和卷积运算的区别在于对输入结果所加的权重系数的顺序不同而已,但由于神经网络本身就是训练参数的,所以两者的输出结果其实是一样的,而互相关运算相比卷积运算由于权重系数(卷积核)无需翻转,更加简单,所以实际的卷积网络都是基于互相关运算的;
互相关运算和卷积一维计算原理:
这里先从一维的开始介绍,方便大家理解;给定一维序列和一维序列
,
则互相关序列为:
其中的元素为:
5960
2117
1920

被折叠的 条评论
为什么被折叠?