CNN的卷积运算为何使用互相关而不是卷积

本文探讨了CNN中卷积运算的本质,并通过代码演示解释了卷积与互相关的区别及联系。指出在CNN中使用卷积或互相关对获取最大像素值的贡献相同,但因代码效率,推荐使用互相关。

CNN的卷积运算并非数学定义的卷积
也就是说,CNN中的运算是不需要翻转卷积核的。
也就是说,CNN在处理图像时的卷积核是不需要翻转180°的
我们来用代码看下为什么?

#-*- coding:utf-8 -*-
import sys
reload(sys)
sys.setdefaultencoding('utf-8')

import numpy as np
A=np.array([[0,0,0,0],\
                [0,0,30,0],\
                [0,60,0,0],\
                [0,0,0,0]])

B=np.array([[0.1,0.01],\
                [1,10]])
import scipy.signal
print"---------卷积结果---------------------"
print scipy.signal.convolve(A,B,mode='valid')
print"---------互相关结果---------------------"
print scipy.signal.correlate(A,B,mode='valid')

运行结果为:
---------卷积结果---------------------
[[0.00e+00 3.00e+00 3.00e-01]
[6.00e+00 3.06e+01 3.00e+02]
[6.00e+01 6.00e+02 0.00e+00]]
---------互相关结果---------------------
[[ 0. 300. 30. ]
[600. 60.3 3. ]
[ 0.6 6. 0. ]]

因为卷积层后面连接的是池化层,
也就是说把卷积结果得到的矩阵中,
选取矩阵中数值最大的元素作为保留,矩阵中其余元素一律删除。

所以我们可以看到:
上述代码的
卷积结果中的最大值

互相关结果矩阵中的最大值
都是600
因此后面maxpooling层进行池化后得到的值也都是600.

如果后面接全连接层,那么
上面两个矩阵全部flatten以后输入dense层,几乎完全一致,也不影响建模

结论:
CNN中使用卷积或互相关,对于
的贡献是一致的,都是获取像素最大的那个值,
因此可以使用卷积,也可以使用互相关,
但是为了代码的高效,直接使用“互相关”即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值