Tensorflow2.0 卷积操作

卷积操作

"""
    keras.Conv2D 卷积操作与
    tf.nn.Conv2D 卷积操作
"""
import tensorflow as tf
from tensorflow.keras import layers

# 获取物理GPU的个数
gpus = tf.config.experimental.list_physical_devices("GPU")
for gpu in gpus:
    # 设置内存增长方式 自增长
    tf.config.experimental.set_memory_growth(gpu, True)
print("物理GPU个数:", len(gpus))

x = tf.random.normal([1, 32, 32, 3])

# 卷积核的个数 = 4 (决定了 输出维度) 卷积核大小 5*5 步长=1 不做padding
layer = layers.Conv2D(4, kernel_size=5, strides=1, padding="valid")
out = layer(x)
# [1, 32, 32, 3] ==> [1, 28, 28, 4] (4 由卷积核个数决定)
print(out.shape)

# 卷积核的个数 = 4 卷积核大小 5*5 步长=1 使得维度相同的 padding
layer = layers.Conv2D(4, kernel_size=5, strides=1, padding="same")
out = layer(x)
# [1, 32, 32, 3] ==> [1, 32, 32, 4]
print(out.shape)

# 卷积核的个数 = 4 卷积核大小 5*5 步长=2 使得维度相同的 padding
layer = layers.Conv2D(4, kernel_size=5, strides=2, padding="same")
out = layer(x)
# [1, 32, 32, 3] ==> [1, 16, 16, 4]
print(out.shape)

# 等同于 layer(x)  重写了 __call__魔法函数
print(layer.call(x).shape)

""" 
    权重与偏置  weight bias
"""
# 卷积核权重
# [5, 5, 3, 4]   [size.x, size.y, channel(通道), number(卷积个数)]
print(layer.kernel.shape)

# 偏置
# [4,]
print(layer.bias)

"""
    tf.nn.conv2d  更加底层 需要自己管理 权重 w + 偏置b 
"""
# 需要根据输入设置 权重维度
w = tf.random.normal([5, 5, 3, 4])
b = tf.zeros([4])
print(x.shape)

# 卷积操作  x:输入 w:权重  strides:步长  padding:周边是否填充
out = tf.nn.conv2d(x, w, strides=1, padding="VALID")
print(out.shape)

# 偏置的添加
out += b
print(out.shape)

# 卷积操作  x:输入 w:权重  strides:步长  padding:周边是否填充
out = tf.nn.conv2d(x, w, strides=2, padding="VALID")
print(out.shape)

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

廷益--飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值