tf.keras.layers(keras在2.3.0之后便不再更新,tf.keras继承了keras的代码,并现在主流使用)
tf.nn
里面有很多层,卷积,循环,全连接神经网络,里面有很多层可以直接调用。
在大多数据情况下,可以使用TensorFlow封装的tf.keras.layers构建的一些层建模,Keras层是非常有用的。
tf.keras.layers.LSTM(100)#循环神经网络
tf.keras.layers.Dense(100)#全连接层
tf.keras.layers.Dense(64,kernel_regularizer
=tf.keras.regularizers.11(0.01))
搭建了一个完整的模型,理论上可以当作文本分类的模型。
#文本分类
a = tf.random.uniform(shape = (10,100,50),minval=-0.5,maxval=0.5) #张量
x = tf.keras.layers.LSTM(100)(a) #LSTM
x = tf.keras.layers.Dense(10)(x) #全连接层
x = tf.nn.softmax(x) #激活函数
可以增加层的配置参数
#层中增加激活函数
tf.keras.layers.Dense(64, activation='relu')
#or
tf.keras.layers.Dense(64, activation=tf.nn.relu)
#将L1正则化系数为0.01的线性层应用于内核矩阵
tf.keras.layers.Dense(64, kernel_regularizer=tf.keras.regularizers.l1(0.01))
#将L2正则化系数为0.01的线性层应用于偏差向量
tf.keras.layers.Dense(64, bias_regularizer=tf.keras.regularizers.l2(0.01))
#内核初始化为随机正交矩阵的线性层
tf.keras.layers.Dense(64, kernel_initializer='orthogonal')
#偏差向量初始化为2.0的线性层
tf.keras.layers.Dense(64, bias_initializer=tf.keras.initializers.Constant(2.0))
完全看不懂?没关系,就是先了解下,以后会系统学习~~
**课程来自”深度之眼“