深度卷积神经网络图像分类技术详解
1. 卷积基础概念
在卷积操作中,填充大小(padding size)和步长(stride)是重要的超参数。例如在之前的例子中,填充大小为零(p = 0),旋转后的滤波器每次移动两个单元格,这里的移动步长 s = 2。步长必须是小于输入向量大小的正整数。
填充输入可以控制输出特征图的大小。零填充是常用的方式,但实际上填充值 p 可以取任何大于等于 0 的值。不同的 p 值会导致输入向量边界元素和中间元素在计算输出时的使用方式不同。比如当输入向量长度 n = 5,滤波器长度 m = 3 时,p = 0 时,x[0] 只用于计算一个输出元素,而 x[1] 用于计算两个输出元素,这可能会使中间元素 x[2] 在计算中被过度强调。若选择 p = 2,则每个输入元素都会参与计算三个输出元素。
交叉相关(cross-correlation)与卷积类似,其表示为 𝒚 = 𝒙 ⋆ 𝒘,不同之处在于交叉相关不需要旋转滤波器矩阵。数学上,交叉相关定义为 𝑦[𝑖] = ∑𝑥[𝑖 + 𝑘]𝑤[𝑘](从 𝑘 = -∞ 到 +∞)。大多数深度学习框架(如 TensorFlow)实现的是交叉相关,但通常称为卷积。
常见的填充模式有三种:
| 填充模式 | 填充参数设置 | 特点 |
| ---- | ---- | ---- |
| 全填充(Full) | p = m - 1 | 增加输出维度,在 CNN 架构中很少使用 |
| 相同填充(Same) | 根据滤波器大小计算,使输入和输出大小相同 | 常用,能保留向量大小,便于设计网络架构 |
| 有效填充(Valid) | p = 0
超级会员免费看
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



