卷积神经网络图片的尺寸变化及其推导

本文介绍了深度学习中卷积层(ConvLayer)和池化层(MaxPoolLayer)输出图像尺寸的计算公式,并通过实例解释了公式推导。作者分享了如何根据卷积核尺寸、步长和填充数来确定输出图像的大小,帮助读者理解如何保持原始尺寸或减小一半。此外,文中提到,对于池化层,同样可以通过调整参数达到减小尺寸的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

大部分转自:https://blog.youkuaiyun.com/qq_36444039/article/details/103984502

笔者以前搭建深度学习模型的时候,对于每一步卷积池化后图片的尺寸和大小很迷茫,不知道如何计算的。
这里,我给大家分享几个公式,帮助大家理解。不明白的欢迎在下方留言。

1、卷积层(Conv Layer)的输出张量(图像)的大小
定义如下:
O=输出图像的尺寸。
I=输入图像的尺寸。
K=卷积层的核尺寸
N=核数量
S=移动步长
P =填充数
输出图像尺寸的计算公式如下:
在这里插入图片描述

上述公式的 分式部分 向下取整

公式推导:画出图片,将卷积核顶在图片的最左上角,从卷积核的右边缘开始考虑。

卷积核的右边缘位于第K个位置,还剩下L-K+2*P个位置可以去移动,一次向右移动S步。

所以,卷积核还能移动(I-K+2P)\S (向下取整)步。再加上本身就处在的位置,所以总共是(I-K+2P)\S(下取整)+1

如果需要保持原来的尺寸:通常S = 1,K = 2P+1, 如padding为0, kernel为1,padding为1,kernel为3

如果需要尺寸减小为原来的一半(DCGAN实现的discriminator有):通常S = 2,K = 2P+2, 如padding为0kenerl为2,padding为1,kernel为4

2、池化层(MaxPool Layer)的输出张量(图像)的大小
定义如下:
O=输出图像的尺寸。
I=输入图像的尺寸。
S=移动步长
PS=池化层尺寸
输出图像尺寸的计算公式如下:
在这里插入图片描述

有了上述公式以后,我特地跑到b站看了相关视频,套入公式后,发现和我们的理解一样。

公式推导:和上面卷积层的推导十分相似,把pooling移动类比kernel移动即能明白。

如果需要尺寸减小为原来的一半: stride = 2, kernel = 2, 也即是maxpool的默认参数

### 卷积神经网络的数学公式及其推导 卷积神经网络(CNN)的核心操作之一是卷积运算,该运算是通过滑动窗口的方式,在输入图像的不同位置应用相同的滤波器来实现特征提取。卷积层中的每一个单元只与其感受野内的前一层单元相连。 #### 1. 前向传播公式的定义 给定一个大小为 \(H \times W\) 的二维输入矩阵 X 和一个尺寸为 \(K \times K\) 的卷积核 F,则输出 Y 中任意一点 (i, j) 处的结果可以表示为: \[Y(i,j)=\sum_{m=0}^{K-1}\sum_{n=0}^{K-1}X(i+m,j+n)\cdot F(m,n)+b\] 这里 b 表示偏置项[^1]。 当涉及到多通道情况时,比如彩色图片具有RGB三个颜色分量,则上述公式变为三维形式: \[O(c',h,w)=\sum_c\sum_kF(c,c',k,h,w)\ast I(c,k,h,w)+B(c')\] 其中 O 是输出张量;I 是输入张量;\(c'\) 是当前计算所在的目标通道索引;c 遍历所有源通道;k 控制着不同尺度下的卷积核变化;而 h 和 w 则对应空间维度上的坐标[^3]。 #### 2. 反向传播算法概述 为了训练 CNN 模型,需要利用梯度下降法调整权重参数。这依赖于链式法则求解损失函数相对于各层权值的变化率。对于卷积层而言,主要关注的是如何高效地计算这些梯度并将其传递回前面的层次结构中去。 假设 L 代表最终预测误差构成的整体目标函数 E 对应第 l 层某个特定节点 i 输入 z_i^(l),那么根据链式法则可得: \[\frac{\partial E}{\partial k}= \sum_j\left(\delta_j*\frac{\partial net_j}{\partial k}\right),\quad where\,\delta=\frac{\partial E}{\partial out},net=w*x+b\] 这里的 δ 称作敏感度因子,它衡量了单个神经元输出改变对总成本的影响程度。在卷积过程中,由于共享相同的一组参数,因此同一过滤器应用于整个输入区域产生的所有响应都会贡献到同一个梯度之上[^4]。 ```python import numpy as np def conv_forward(X, W, b, stride=1, pad=0): N, C, H, W = X.shape num_filters, _, HH, WW = W.shape # 计算输出的高度和宽度 H_out = int((H + 2 * pad - HH) / stride + 1) W_out = int((W + 2 * pad - WW) / stride + 1) # 初始化输出数组 out = np.zeros((N, num_filters, H_out, W_out)) # 执行卷积操作 for n in range(N): for f in range(num_filters): for ho in range(H_out): hs = ho * stride he = hs + HH for wo in range(W_out): ws = wo * stride we = ws + WW window = X[n,:,hs:he,ws:we] out[n,f,ho,wo]=np.sum(window*W[f])+b[f] return out ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值