Tensorflow 中max_pool的padding 问题

本文通过实例对比了池化层中使用'VALID'与'SAME'两种填充方式的效果差异,并探讨了不同填充方式如何影响输出尺寸。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

之前在学习过程中并没有遇到池化层padding的问题,在听课过程没有提到池化层padding,于是试了下,果然填不填充是不一样的效果。下面是程序示例

a = tf.get_variable('w',  shape=(1,4,4,1), initializer=tf.truncated_normal_initializer(seed=1))
b = tf.nn.max_pool(a,  ksize=[1,2,2,1], strides=[1,2,2,1], padding='VALID')
c = tf.nn.max_pool(a,  ksize=[1,2,2,1], strides=[1,2,2,1], padding='SAME')
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    out_b = sess.run(b)
    out_c = sess.run(c)
    print(out_b.shape, out_c.shape)

运行结果:
这里写图片描述
在这里刚好是4 % 2 = 0,也就是池化的模板的长度能够待处理的数据长度整除,所以两者的结果是相同的。

import tensorflow as tf


a = tf.get_variable('w',  shape=(1,3,3,1), initializer=tf.truncated_normal_initializer(seed=1))
b = tf.nn.max_pool(a,  ksize=[1,2,2,1], strides=[1,2,2,1], padding='VALID')
c = tf.nn.max_pool(a,  ksize=[1,2,2,1], strides=[1,2,2,1], padding='SAME')
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    out_b = sess.run(b)
    out_c = sess.run(c)
    print(out_b.shape, out_c.shape)

这里写图片描述

这里就不一样了,因为模板在滑动时,可能存在覆盖不完全的地方,就比如用2*2的模板,对于VALID模式和SAME模式就不一样,SAME模式会补全橙色部分,而VALID模式就不会补全了

这里写图片描述

### PyTorch 中 `MaxPool2d` 的 Padding 参数详解 在 PyTorch 中,`torch.nn.MaxPool2d()` 函数用于实现二维最大池化操作。此函数接受多个参数来控制池化的具体行为,其中 `padding` 是一个重要的参数。 #### Padding 参数的作用 `padding` 参数决定了输入张量边缘填充多少零值[^1]。这有助于保持输出特征图的空间尺寸接近于输入大小,尤其是在卷积神经网络 (CNN) 设计中非常有用。当设置 `padding` 时,可以在一定程度上防止因池化而导致的信息丢失过多。 对于 `MaxPool2d` 来说: - 如果不指定 `stride` 和 `padding`,则默认情况下 `stride` 等同于 `kernel_size` 而 `padding=0`。 - 当指定了正整数作为 `padding` 值时,在计算过程中会在图像边界处自动补充相应数量的零像素点。 下面通过具体的例子展示不同 `padding` 设置的效果: ```python import torch from torchvision import models import torch.nn.functional as F input_tensor = torch.randn((1, 3, 8, 8)) # 不加 padding 的情况 pool_layer_no_pad = torch.nn.MaxPool2d(kernel_size=(2, 2)) output_no_padding = pool_layer_no_pad(input_tensor) print(f'Output shape without padding: {output_no_padding.shape}') # 加入 padding 后的情况 pool_layer_with_pad = torch.nn.MaxPool2d(kernel_size=(2, 2), padding=1) output_with_padding = pool_layer_with_pad(input_tensor) print(f'Output shape with padding: {output_with_padding.shape}') ``` 上述代码展示了如何创建具有不同 `padding` 配置的最大池层实例,并打印出经过这些层处理后的输出形状变化。 #### TensorFlow 对应的操作 TensorFlow 提供了类似的 API 接口来进行相同类型的池化运算。以下是使用 Keras 实现同样功能的方式: ```python import tensorflow as tf from tensorflow.keras.layers import MaxPooling2D input_tensor_tf = tf.random.normal([1, 8, 8, 3]) # 创建无 padding 的池化层 pool_layer_no_pad_tf = MaxPooling2D(pool_size=(2, 2)) output_no_padding_tf = pool_layer_no_pad_tf(input_tensor_tf) print(f'TensorFlow output shape without padding: {output_no_padding_tf.shape}') # 使用 'same' 方式的 padding pool_layer_same_pad_tf = MaxPooling2D(pool_size=(2, 2), padding='same') output_same_padding_tf = pool_layer_same_pad_tf(input_tensor_tf) print(f'TensorFlow output shape with same padding: {output_same_padding_tf.shape}') ``` 注意这里 TensorFlow 默认提供了 `'valid'` 和 `'same'` 两种模式的选择;前者相当于 PyTorch 中未添加额外填充的行为 (`padding=0`) ,后者则是尽可能维持原始空间维度不变的一种方式[^2]。 #### 解决 PyTorch 版本差异引发的问题 关于提到的不同版本间可能出现的问题,特别是从 PyTorch 1.3 升级至 1.4 后遇到的 RuntimeError 错误消息,通常这类问题是由于某些底层 CUDA 或者 cuDNN 库的变化所引起的。建议尝试更新显卡驱动程序以及确保安装最新版的 NVIDIA 显存管理工具包(CUDA Toolkit),并确认使用的 PyTorch 构建是否与当前环境兼容[^3]。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值