
TF
文章平均质量分 62
TensorFlow翻译
哎呦-_-不错
读书太少而想太多
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
TF2.0—tf.keras.losses.BinaryCrossentropy
文章目录BinaryCrossentropy实例BinaryCrossentropytf.keras.losses.BinaryCrossentropy( from_logits=False, label_smoothing=0, reduction=losses_utils.ReductionV2.AUTO, name='binary_crossentropy')描述计算真实标签和预测标签之间的交叉熵损失当只有两个标签类(假设为0和1)时,使用这个交叉熵损失。对于每个示例,原创 2021-01-16 15:06:36 · 6661 阅读 · 0 评论 -
TF2.0—tf.keras.layers.Activation
文章目录官网tf.keras.layers.Activation( activation, **kwargs)描述对输出应用激活函数参数activation激活函数,例如tf.nn.relu,或内置激活函数的字符串名称,例如“ relu”。Input shape当将此层用作模型的第一层时,请使用关键字参数input_shapeOutput shape与输入相同形状的输出案例...原创 2021-01-16 14:47:16 · 2358 阅读 · 0 评论 -
TF2.0—tf.keras.layers.GaussianNoise
文章目录官网tf.keras.layers.GaussianNoise( stddev, **kwargs)描述应用高斯噪声这对于减少过度拟合很有用(可以将其视为一种随机数据增强形式)。高斯噪声(GS)作为实值输入的破坏过程是很自然的选择。由于它是一个正则化层,因此仅在训练时才激活参数stddev浮点数,噪声分布的标准差可调用参数inputs输入张量training布尔值,指示该层是应在训练模式下(添加噪声)还是在推理模式下(不执行任何操作)运行In原创 2021-01-16 14:40:56 · 1302 阅读 · 0 评论 -
TF2.0—tf.keras.layers.Lambda
文章目录Lambda官方案例Lambda官网tf.keras.layers.Lambda( function, output_shape=None, mask=None, arguments=None, **kwargs)描述将任意表达式包装为Layer对象,Lambda层的存在是为了在构建顺序和函数式API模型时可以使用任意的TensorFlow函数。虽然可以在Lambda层中使用变量,但不鼓励这种做法,因为它很容易导致bugInherits From: Layer, Modul原创 2021-01-16 14:33:40 · 1405 阅读 · 0 评论 -
TF2—tf.keras.layers.BatchNormalization
文章目录BatchNormalization参数详解BatchNormalization参数详解原网址tf.keras.layers.BatchNormalization( axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamma_initializer='ones', moving_mean_initializer='zeros', movin原创 2021-01-16 14:11:08 · 2173 阅读 · 1 评论 -
TF-tf.keras.layers.Embedding
tf.keras.layers.Embedding( input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None, **kwargs)作用是:将正整数(索引)转换为大小固定的向量这个层只能原创 2020-11-16 11:07:59 · 972 阅读 · 0 评论 -
TF-tf.keras.layers.Attention-Attention机制
文章目录Attention层介绍Attention机制通俗理解Attention层介绍tf.keras.layers.Attention( use_scale=False, **kwargs)输入为形状[batch_size,Tq,dim]的查询张量,形状[batch_size,Tv,dim]的值张量和形状[batch_size,Tv,dim]的键张量。计算遵循以下步骤:计算形状为[batch_size,Tq,Tv]的分数作为查询键点积:scores = tf.matmul(quer原创 2020-11-16 10:44:39 · 6761 阅读 · 12 评论 -
TF-tf.keras.layers.Dropout
tf.keras.layers.Dropout( rate, noise_shape=None, seed=None, **kwargs)作用:将Dropout应用于输入Dropout层在训练期间的每一步中将输入单位随机设置为0,频率为速率,这有助于防止过拟合。未设置为0的输入将按1 /(1-rate)放大,以使所有输入的总和不变。请注意,仅当训练设置为True时才应用Dropout层,以便在推理过程中不会丢弃任何值。使用model.fit时,训练将自动适当地设置为True,在其他情况下原创 2020-11-15 15:57:23 · 4314 阅读 · 0 评论 -
TF-tf.keras.layers.Dense
tf.keras.layers.Dense( units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None原创 2020-11-15 14:05:42 · 620 阅读 · 0 评论 -
TF-tf.keras.layers.Conv1D
tf.keras.layers.Conv1D( filters, kernel_size, strides=1, padding='valid', data_format='channels_last', dilation_rate=1, groups=1, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regu原创 2020-11-15 13:53:54 · 1402 阅读 · 2 评论 -
TF-layers.MaxPooling1D
tf.compat.v1.layers.MaxPooling1D(pool_size, strides, padding='valid', ='channels_last', name=None,**kwargs)作用:最大池化1D输入pool_size:表示池窗口的大小strides:指定池化操作的步幅padding:填充方法,“valid”或“same”data_format:channels_last(默认)或channels_first中的一个。输入中尺寸的顺序。channel原创 2020-11-14 22:11:10 · 1113 阅读 · 0 评论 -
TF-tf.keras.layers.MaxPool1D
tf.keras.layers.MaxPool1D( pool_size=2, strides=None, padding='valid', data_format='channels_last', **kwargs)作用: 1D时间数据的最大池化操作通过采用pool_size定义的窗口上的最大值来对输入表示进行下采样。窗口通过strides来控制移动。使用“valid”填充选项时的结果输出具有以下形状:output_shape =(input_shape-pool_size +原创 2020-11-14 20:02:37 · 2220 阅读 · 0 评论 -
TF2.0-tf.keras.callbacks.EarlyStopping
tf.keras.callbacks.EarlyStopping( monitor='val_loss', min_delta=0, patience=0, verbose=0, mode='auto', baseline=None, restore_best_weights=False)作用是:当监控指标停止改进时,停止训练假设训练的目标是使损失最小化。这样,监视的指标将是“损失”,模式将是“min”。model.fit()训练循环将在每个epoch结束时检查损失是否不再减少,并原创 2020-11-14 16:01:17 · 479 阅读 · 0 评论 -
TF2.0-tf.keras.callbacks.ModelCheckpoint
tf.keras.callbacks.ModelCheckpoint( filepath, monitor='val_loss', verbose=0, save_best_only=False, save_weights_only=False, mode='auto', save_freq='epoch', options=None, **kwargs)作用:回调以保存Keras模型或模型权重ModelCheckpoint回调与使用model.fit()进行的训练结合使用,可以以一原创 2020-11-14 16:16:32 · 2481 阅读 · 1 评论 -
TF2.0-tf.keras.layers.Concatenate
tf.keras.layers.Concatenate( axis=-1, **kwargs)作用是:它接受一个张量列表作为输入,除了连接轴外,所有的张量形状都相同,返回一个张量,它是所有输入的连接import tensorflow as tfx = np.arange(20).reshape(2, 2, 5)print(x)[[[ 0 1 2 3 4] [ 5 6 7 8 9]] [[10 11 12 13 14] [15 16 17 18 19]]]y原创 2020-11-14 15:27:25 · 2774 阅读 · 0 评论