
有时候,如果输入图像的尺寸比较小,那么通过几层卷积之后尺寸就不能够支持继续做卷积了,从了限制了网络的深度


填充通常设置成kernel_size - 1,以保持输入输出尺寸一致,算起来比较方便



import torch
from torch import nn
def comp_conv2d(conv2d, X):
# 在维度的前面加入一个通道数和批量大小数
X = X.reshape((1, 1) + X.shape)
Y = conv2d(X)
return Y.reshape(Y.shape[2:])
# 在所有侧边填充一个像素
conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1)
X = torch.rand(size=(8, 8))
print(comp_conv2d(conv2d, X).shape)
# 填充不同的高度和宽度
conv2d = nn.Conv2d(1, 1, kernel_size=(5, 3), padding=(2, 1)) # 上下填充2,左右填充1
print(comp_conv2d(conv2d, X).shape)
# 将高度和宽度的步幅设置为2
conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1, stride=2)
print(comp_conv2d(conv2d, X).shape)
# 一个稍微复杂的例子
conv2d = nn.Conv2d(1, 1, kernel_size=(3, 5), padding=(0, 1), stride=(3, 4))
print(comp_conv2d(conv2d, X).shape)
本文介绍了卷积神经网络中填充的作用,如何使用填充保持输入输出尺寸一致,以及不同高度和宽度的填充方式。同时展示了步幅如何影响输出尺寸,包括单一和不同步幅的设置。通过实例展示了PyTorch中实现这些操作的方法。
2268

被折叠的 条评论
为什么被折叠?



