汇总tf.keras模型层layers

本文详细介绍使用TensorFlow构建深度学习网络的过程,包括卷积层、池化层、全连接层等关键层的使用,以及如何搭建LeNet-5神经网络进行MNIST手写数字识别的训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

tf.keras.layers.Dense():密集连接层。参数个数 = 输入层特征数× 输出层特征数(weight)+ 输出层特征数(bias)

tf.keras.layers.Activation():激活函数层。一般放在Dense层后面,等价于在Dense层中指定activation。

tf.keras.layers.Dropout():随机置零层。训练期间以一定几率将输入置0,一种正则化手段。

tf.keras.layers.BatchNormalization():批标准化层。通过线性变换将输入批次缩放平移到稳定的均值和标准差。可以增强模型对输入不同分布的适应性,加快模型训练速度,有轻微正则化效果。一般在激活函数之前使用。

tf.keras.layers.SpatialDropout2D():空间随机置零层。训练期间以一定几率将整个特征图置0,一种正则化手段,有利于避免特征图之间过高的相关性。

tf.keras.layers.Input():输入层。通常使用Functional API方式构建模型时作为第一层。

tf.keras.layers.DenseFeature():特征列接入层,用于接收一个特征列列表并产生一个密集连接层。

tf.keras.layers.Flatten():压平层,用于将多维张量压成一维。

tf.keras.layers.Reshape():形状重塑层,改变输入张量的形状。

tf.keras.layers.Concatenate():拼接层,将多个张量在某个维度上拼接。

tf.keras.layers.Add():加法层。

tf.keras.layers.Subtract():减法层。

tf.keras.layers.Maximum():取最大值层。

tf.keras.layers.Minimum():取最小值层。

2卷积网络相关层

tf.keras.layers.Conv1D():普通一维卷积,常用于文本。参数个数 = 输入通道数×卷积核尺寸(如3)×卷积核个数

tf.keras.layers.Conv2D():普通二维卷积,常用于图像。参数个数 = 输入通道数×卷积核尺寸(如3乘3)×卷积核个数

tf.keras.layers.Conv3D():普通三维卷积,常用于视频。参数个数 = 输入通道数×卷积核尺寸(如3乘3乘3)×卷积核个数

tf.keras.layers.SeparableConv2D():二维深度可分离卷积层。不同于普通卷积同时对区域和通道操作,深度可分离卷积先操作区域,再操作通道。即先对每个通道做独立卷即先操作区域,再用1乘1卷积跨通道组合即再操作通道。参数个数 = 输入通道数×卷积核尺寸 + 输入通道数×1×1×输出通道数。深度可分离卷积的参数数量一般远小于普通卷积,效果一般也更好。

tf.keras.layers.DepthwiseConv2D():二维深度卷积层。仅有SeparableConv2D前半部分操作,即只操作区域,不操作通道,一般输出通道数和输入通道数相同,但也可以通过设置depth_multiplier让输出通道为输入通道的若干倍数。输出通道数 = 输入通道数 × depth_multiplier。参数个数 = 输入通道数×卷积核尺寸× depth_multiplier。

tf.keras.layers.Conv2DTranspose():二维卷积转置层,俗称反卷积层。并非卷积的逆操作,但在卷积核相同的情况下,当其输入尺寸是卷积操作输出尺寸的情况下,卷积转置的输出尺寸恰好是卷积操作的输入尺寸。

tf.keras.layers.LocallyConnected2D():二维局部连接层。类似Conv2D,唯一的差别是没有空间上的权值共享,所以其参数个数远高于二维卷积。

tf.keras.layers.MaxPooling2D():二维最大池化层。也称作下采样层。池化层无参数,主要作用是降维。

tf.keras.layers.AveragePooling2D():二维平均池化层。

tf.keras.layers.GlobalMaxPool2D():全局最大池化层。每个通道仅保留一个值。一般从卷积层过渡到全连接层时使用,是Flatten的替代方案。

tf.keras.layers.GlobalAvgPool2D():全局平均池化层。每个通道仅保留一个值。

示例代码一、搭建LeNet-5神经网络

import tensorflow as tf
from tensorflow.keras import datasets, layers, optimizers, Sequential, metrics, losses

# 1.数据集准备
(x, y), (x_val, y_val) = datasets.mnist.load_data()  # 加载数据集,返回的是两个元组,分别表示训练集和测试集
x = tf.convert_to_tensor(x, dtype=tf.float32) / 255.  # 转换为张量,并缩放到0~1
y = tf.convert_to_tensor(y, dtype=tf.int32)  # 转换为张量(标签)
print(x.shape, y.shape)
train_dataset = tf.data.Dataset.from_tensor_slices((x, y))  # 构建数据集对象
train_dataset = train_dataset.batch(32).repeat(10)  # 设置批量训练的batch为32,要将训练集重复训练10遍

# 2.搭建网络
network = Sequential([  # 搭建网络容器
    layers.Conv2D(6, kernel_size=3, strides=1),  # 第一个卷积层,6个3*3*1卷积核
    layers.MaxPooling2D(pool_size=2, strides=2),  # 池化层,卷积核2*2,步长2
    layers.ReLU(),  # 激活函数
    layers.Conv2D(16, kernel_size=3, strides=1),  # 第二个卷积层,16个3*3*6卷积核
    layers.MaxPooling2D(pool_size=2, strides=2),  # 池化层
    layers.ReLU(),  # 激活函数
    layers.Flatten(),  # 拉直,方便全连接层处理
    layers.Dense(120, activation='relu'),  # 全连接层,120个节点
    layers.Dense(84, activation='relu'),  # 全连接层,84个节点
    layers.Dense(10)  # 输出层,10个节点
])
network.build(input_shape=(None, 28, 28, 1))  # 定义输入,batch_size=32,输入图片大小是28*28,通道数为1。
network.summary()  # 显示出每层的待优化参数量

# 3.模型训练(计算梯度,迭代更新网络参数)
optimizer = optimizers.SGD(lr=0.01)  # 声明采用批量随机梯度下降方法,学习率=0.01
acc_meter = metrics.Accuracy()  # 新建accuracy测量器
for step, (x, y) in enumerate(train_dataset):  # 一次输入batch组数据进行训练
    with tf.GradientTape() as tape:  # 构建梯度记录环境
        x = tf.reshape(x, (32, 28, 28, 1))  # 将输入拉直,[b,28,28]->[b,784]
        # x = tf.extand_dims(x, axis=3)
        out = network(x)  # 输出[b, 10]
        y_onehot = tf.one_hot(y, depth=10)  # one-hot编码
        loss = tf.square(out - y_onehot)
        loss = tf.reduce_sum(loss) / 32  # 定义均方差损失函数,注意此处的32对应为batch的大小
        grads = tape.gradient(loss, network.trainable_variables)  # 计算网络中各个参数的梯度
        optimizer.apply_gradients(zip(grads, network.trainable_variables))  # 更新网络参数
        acc_meter.update_state(tf.argmax(out, axis=1), y)  # 比较预测值与标签,并计算精确度(写入数据,进行求精度)

    if step % 200 == 0:  # 每200个step,打印一次结果
        print('Step', step, ': Loss is: ', float(loss), ' Accuracy: ', acc_meter.result().numpy())  # 读取数据
        acc_meter.reset_states()  # 清零测量器l

 

import numpy as np import tensorflow as tf from tensorflow.keras.models import Model from tensorflow.keras.layers import Input, Conv1D, Dense, Dropout, Flatten, TimeDistributed from sklearn.preprocessing import StandardScaler from sklearn.metrics import mean_absolute_error # 生成虚拟交通流量数据 def generate_virtual_taxi_data(num_nodes=50, time_steps=288, features=2): np.random.seed(42) # 确保可复现性 base_flow = np.linspace(100, 500, num_nodes) # 基础流量(辆/小时) inflow = np.random.normal(loc=base_flow*0.8, scale=base_flow*0.1, size=(time_steps, num_nodes)) outflow = np.random.normal(loc=base_flow*0.7, scale=base_flow*0.1, size=(time_steps, num_nodes)) # 添加早晚高峰特征 peak_mask = np.zeros((time_steps, num_nodes), dtype=bool) peak_mask[np.logical_or(time_steps*0.25<np.arange(time_steps), time_steps*0.75>np.arange(time_steps))] = True inflow[peak_mask] *= 1.5 outflow[peak_mask] *= 1.3 # 构建完整数据集 traffic_data = np.stack([inflow, outflow], axis=-1) return traffic_data # 创建序列数据 def create_sequences(data, seq_length): X, y = [], [] for i in range(len(data) - seq_length): X.append(data[i:i+seq_length]) y.append(data[i+seq_length]) return np.array(X), np.array(y) # 构建多任务模型 def build_multi_task_model(input_shape): inputs = Input(shape=input_shape) x = tf.keras.layers.TimeDistributed(Conv1D(filters=64, kernel_size=3, activation='relu', padding='same'))(inputs) x = tf.keras.layers.TimeDistributed(Flatten())(x) x = tf.keras.layers.LSTM(128, return_sequences=True)(x) # 分支预测流入和流出 inflow_output = Dense(1, name='inflow')(x) outflow_output = Dense(1, name='outflow')(x) model = Model(inputs, [inflow_output, outflow_output]) model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.001), loss={'inflow': 'mse', 'outflow': 'mse'}, metrics={'inflow': 'mae', 'outflow': 'mae'}) return model # 主函数 def main(): num_nodes = 50 time_steps = 288 features = 2 seq_length = 12 # 生成虚拟数据 traffic_data = generate_virtual_taxi_data(num_nodes, time_steps, features) print(f"Virtual Traffic Data Shape: {traffic_data.shape}") # 应输出 (288,50,2) # 数据预处理 scaler = StandardScaler() traffic_data_scaled = scaler.fit_transform(traffic_data.reshape(-1, features)).reshape(traffic_data.shape) # 创建序列数据 X, y = create_sequences(traffic_data_scaled, seq_length) # 划分训练集/测试集 split = int(0.8 * X.shape[0]) X_train, X_test = X[:split], X[split:] y_train, y_test = y[:split], y[split:] # 模型训练 model = build_multi_task_model(input_shape=(seq_length, num_nodes, features)) history = model.fit(X_train, {'inflow': y_train[..., 0].reshape(-1, 1), 'outflow': y_train[..., 1].reshape(-1, 1)}, epochs=50, batch_size=32, validation_split=0.2) # 结果评估 y_pred_inflow, y_pred_outflow = model.predict(X_test) y_pred_inflow = scaler.inverse_transform(y_pred_inflow).flatten() y_pred_outflow = scaler.inverse_transform(y_pred_outflow).flatten() y_test_inflow = scaler.inverse_transform(y_test[..., 0]).flatten() y_test_outflow = scaler.inverse_transform(y_test[..., 1]).flatten() mae_inflow = mean_absolute_error(y_test_inflow, y_pred_inflow) mae_outflow = mean_absolute_error(y_test_outflow, y_pred_outflow) print(f"MAE Inflow: {mae_inflow:.2f}辆/小时") print(f"MAE Outflow: {mae_outflow:.2f}辆/小时") if __name__ == '__main__': main()帮我修改这段代码
03-11
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值