tensorflow2.0学习记录-常用层Commonly used layers

本文介绍如何使用TensorFlow的tf.keras.layers模块构建神经网络,包括卷积、循环及全连接层的应用,演示了文本分类模型的搭建过程,并详细解释了层配置参数如激活函数、正则化和初始化的设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

tf.keras.layers(keras在2.3.0之后便不再更新,tf.keras继承了keras的代码,并现在主流使用)
tf.nn
两者的区别
里面有很多层,卷积,循环,全连接神经网络,里面有很多层可以直接调用。
在大多数据情况下,可以使用TensorFlow封装的tf.keras.layers构建的一些层建模,Keras层是非常有用的。

tf.keras.layers.LSTM(100)#循环神经网络
tf.keras.layers.Dense(100)#全连接层
tf.keras.layers.Dense(64,kernel_regularizer
=tf.keras.regularizers.11(0.01))

搭建了一个完整的模型,理论上可以当作文本分类的模型。

#文本分类

a = tf.random.uniform(shape = (10,100,50),minval=-0.5,maxval=0.5) #张量

x = tf.keras.layers.LSTM(100)(a) #LSTM

x = tf.keras.layers.Dense(10)(x) #全连接层

x = tf.nn.softmax(x) #激活函数

可以增加层的配置参数

#层中增加激活函数
tf.keras.layers.Dense(64, activation='relu')
#or
tf.keras.layers.Dense(64, activation=tf.nn.relu)
#将L1正则化系数为0.01的线性层应用于内核矩阵
tf.keras.layers.Dense(64, kernel_regularizer=tf.keras.regularizers.l1(0.01))
#将L2正则化系数为0.01的线性层应用于偏差向量
tf.keras.layers.Dense(64, bias_regularizer=tf.keras.regularizers.l2(0.01))
#内核初始化为随机正交矩阵的线性层
tf.keras.layers.Dense(64, kernel_initializer='orthogonal')
#偏差向量初始化为2.0的线性层
tf.keras.layers.Dense(64, bias_initializer=tf.keras.initializers.Constant(2.0))

完全看不懂?没关系,就是先了解下,以后会系统学习~~
**课程来自”深度之眼“

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值