在高上使用步幅shs_hsh,在宽上使用步幅sws_wsw,那么输出大小将是
⌊(nh−kh+ph+sh)/sh⌋×⌊(nw−kw+pw+sw)/sw⌋.
\lfloor(n_h-k_h+p_h+s_h)/s_h\rfloor \times \lfloor(n_w-k_w+p_w+s_w)/s_w\rfloor.
⌊(nh−kh+ph+sh)/sh⌋×⌊(nw−kw+pw+sw)/sw⌋.
其中,nnn是输入的长或者宽,kkk是卷积核的长或者宽,ppp是在高或者宽两侧一共填充p行或者列(一般用0填充),sss是在高或者宽移动的步幅
1、默认步幅s=1s=1s=1
输出大小
⌊(nh−kh+ph+1)/1⌋=nh−kh+ph+1\lfloor(n_h-k_h+p_h+1)/1\rfloor= n_h-k_h+p_h+1⌊(nh−kh+ph+1)/1⌋=nh−kh+ph+1
如果,使得输入和输出有相同的高宽,则设置一共的填充ph=kh−1p_h=k_h-1ph=kh−1和pw=kw−1p_w=k_w-1pw=kw−1
假设khk_hkh是奇数,那么在高的两侧分别填充ph/2p_h/2ph/2行。如果其是偶数,一种可能是上面填充⌈ph/2⌉⌈p_h/2⌉⌈ph/2⌉行,而下面填充⌊ph/2⌋⌊p_h/2⌋⌊ph/2⌋行。在宽上行为类似。卷积神经网络经常使用奇数高宽的卷积核,例如1、3、5、和7,所以填充在两端上是对称的。这样还有一点方便的是我们知道输出Y[i,j]是由输入以X[i,j] (原始矩阵) 为中心的窗口同卷积核进行相关计算得来。
2、步幅为通用时
计算输入元素滑动最后一次,填不满窗口时,我们将其结果舍弃。
设置一共的填充ph=kh−1p_h=k_h-1ph=kh−1和pw=kw−1p_w=k_w-1pw=kw−1,输出大小简化为
⌊(nh+sh−1)/sh⌋×⌊(nw+sw−1)/sw⌋\lfloor(n_h+s_h-1)/s_h\rfloor \times \lfloor(n_w+s_w-1)/s_w\rfloor⌊(nh+sh−1)/sh⌋×⌊(nw+sw−1)/sw⌋
3、多输入和输出通道
多输入通道:
假设输入通道数是cic_ici,且卷积核窗口为kh×kwk_h×k_wkh×kw。当ci=1c_i=1ci=1时,我们知道卷积核就是一个kh×kwk_h×k_wkh×kw数组。当其大于1时,我们将会为每个输入通道分配一个单独的kh×kwk_h×k_wkh×kw核数组。我们将这些数组合并起来,将得到一个ci×kh×kwc_i×k_h×k_wci×kh×kw形状的卷积核。即输入通道数为n时候,相应的卷积核形状也跟着变(1×kh×kw1×k_h×k_w1×kh×kw变n×kh×kwn×k_h×k_wn×kh×kw),但是数目依然算是1。
(1个输出通道只用1个卷积核)
多输出通道:
(n个输出通道需要用n个卷积核)