PADDING=‘SAME’ or‘VALID’

本文详细解析了Keras中卷积层的两种padding策略:“valid”与“same”。'valid'仅对图像中与卷积层完全对齐的部分进行操作,而'same'通过在输入边界添加填充,确保输出形状与输入形状一致。文章通过一维和二维示例,清晰阐述了这两种策略的区别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在使用Keras的时候会遇到这样的代码x = Conv2D(filters, kernel_size=5, strides=2, padding='same')(x),与pytorch不同,keras和TensorFlow设置卷积层的过程中可以设置padding参数,vaild和same。“valid”代表只进行有效的卷积,对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。

分析

那vaild和same有什么区别,两者本质区别就是padding过程中采取的策略不同。

《深度学习-TF、keras两种padding方式:vaild和same》

“valid”

valid即只对图像中像素点“恰好”与卷积层对齐的部分进行卷积。上图中一维演示中输入宽度为13,卷积宽度为6,每次前进5格,当进行到(12、13)的时候因为每次步伐为5,5>2,所以(12、13)就不进行卷积了,舍弃了最右边的这两个数。

“same”

same则不同,尽可能对原始的输入左右两边进行padding从而使卷积核刚好全部覆盖所有输入,当进行padding后如果输入的宽度为奇数则会在右边再padding一下(如上图15+1=16,右边两个pad,左边一个pad)。

上面是按照1D的形式来进行讲解的,2D的形式原理也相同。

valid:

  \[ Output\_height = Output\_width =\lceil \frac{ (W - F + 1)} { S} \rceil \]

same:

  \[ Output\_height = Output\_width =\lceil \frac{ W } { S}\rceil \]

其中W为输入的宽度、F为卷积filter的size,S为步长(Stride)。

def conv2d(input_, output_dim, k_h=5, k_w=5, d_h=2, d_w=2, stddev=0.02, # 标准差0.02 #卷积核大小和步长 name="conv2d", padding='REFLECT'): with tf.variable_scope(name): # reflect padding反射填充 if padding == 'REFLECT': in_height, in_width = input_.get_shape().as_list()[1:3] #从形状元组中获取索引为 1 和 2 的维度大小,即高度和宽度。 if (in_height % d_h == 0): pad_along_height = max(k_h - d_h, 0) else: pad_along_height = max(k_h - (in_height % d_h), 0) if (in_width % d_w == 0): pad_along_width = max(k_w - d_w, 0) else: pad_along_width = max(k_w - (in_width % d_w), 0) #算出宽度和高度可填充像素数 pad_top = pad_along_height // 2 pad_bottom = pad_along_height - pad_top pad_left = pad_along_width // 2 pad_right = pad_along_width - pad_left #可填充像素上下分配 input_ = tf.pad(input_, [[0, 0], [pad_top, pad_bottom], [pad_left, pad_right], [0, 0]], "REFLECT")#按上述参数进行反射填充 padding = 'VALID' #不进行额外填充 w = tf.get_variable('w', [k_h, k_w, input_.get_shape()[-1], output_dim], #卷积核高度宽度,输入通道数,输出通道数 initializer=tf.truncated_normal_initializer(stddev=stddev))#使用了截断正态分布初始化器(truncated normal initializer) conv = tf.nn.conv2d(input_, w, strides=[1, d_h, d_w, 1], padding=padding) #进行二维卷积操作 biases = tf.get_variable('biases', [output_dim], initializer=tf.constant_initializer(0.0)) #创建一个可训练变量,初始化偏执为0.0 # conv = tf.reshape(tf.nn.bias_add(conv, biases), conv.get_shape()) conv = tf.nn.bias_add(conv, biases) return conv在这个卷积层定义中加入膨胀卷积
最新发布
03-19
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值