
tensorflow
方如一
这个作者很懒,什么都没留下…
展开
-
tf.data.Dataset.from_tensor_slices
数组转换成tensorflow的dataset,因为只有dataset才能被model.fit函数训练。进行切分,生成该tensor的切片数据集dataset。被在第0维切分成了5个不同tf.Tensor。对传入的tensor在第一个。ndarray类型的。将python列表和。...原创 2022-07-25 19:29:36 · 3143 阅读 · 0 评论 -
tf.squeeze
可以通过指定axis来删除特定维度1的维度如values为shape([1,2,1,3,1,1]),经历tf.squeeze(values,[0]),shape变成([2,1,3,1,1])压缩这个张量如values为shape([1,2,1,3,1,1]),经历tf.squeeze(values),shape变成([2,3])原创 2022-07-20 22:44:37 · 1390 阅读 · 0 评论 -
keras自定义loss
算‘myself_loss’,x2和trainY2算‘myself_loss’,x3和trainY3算‘myself_loss’,而模型的输入是。如果有多个loss,那么loss_weights对应每个loss的权重,最后输出loss的和。loss损失函数是编译模型model.compile时所需的参数之一,可以用损失函数名或者。Keras会为Model的每一个输出out构建一个loss,这些loss之间无法交互。同时,Model中每一个outut都必须在fit()有对应的y_ture。..........原创 2022-07-17 21:59:11 · 3681 阅读 · 0 评论 -
tf.stop_grandient
对evalnet的参数更新是通过MSE+GD来更新的,而MSE的计算将用到targetnet对下一状态的估值,通常的做法是对evalnet设置一个placeholder,也即引入一个输入,用这个placeholder计算loss。的特点是,只需要通过Tensor变量(可以看作是自己给出的输入数据)构建Graph,和相应的优化目标loss(也可以看作Graph的一部分),当调用优化器去minimizeloss时,优化器会根据loss中所涉及的变量,自动进行BP,对所有的相关变量进行参数更新。...原创 2022-07-16 17:00:59 · 918 阅读 · 0 评论 -
tf.compat.v1.losses.hinge_loss
在训练过程中增加了hinge loss。labels和 logits具有相同的shape。原创 2022-07-12 21:39:31 · 288 阅读 · 0 评论 -
维度和axis
1 如何看shape:看括号从[[[[可知是四维向量,第一个 [ 不看,第二个[ 括号的个数为1,第三个[ 括号的个数为2,第四个[ 括号的个数为3,括号里有四个数。故shape为[1,2,3,4]。2如何看axis:看shape,看括号 拓展维度: tf.expand_dims()_GungnirsPledge的博客-优快云博客_tf 扩展维度...原创 2022-07-12 20:00:05 · 180 阅读 · 0 评论 -
tf.expand_dims
这个函数根据axis在原本的tensor的某个维度上增加1维。例1: tf.shape(tf.expand_dims(t, 0)),在axis=0的括号处首尾对应加[ ]tf.shape(tf.expand_dims(t, 1)),在axis=1的括号处首尾对应加[ ] tf.shape(tf.expand_dims(t, 2)),在axis=2的括号处首尾对应加[ ] ,即在axis = -1 上加维度,那么就是每个元素加括号拓展维度: tf.expand_dims()_Gu原创 2022-07-12 19:45:50 · 618 阅读 · 0 评论 -
keras.layers.RNN(cell)
tf.compat.v1.nn.dynamic_rnn :已弃用tf.keras.layers.RNN:更新原创 2022-07-12 11:22:26 · 812 阅读 · 0 评论 -
tf.compat.v1.nn.rnn_cell.BasicLSTMCell
可能已经弃用,现在用的是 tf.compat.v1.nn.rnn_cell.LSTMCell tf.compat.v1.nn.rnn_cell.LSTMCell num_units,LSTM单元数原创 2022-07-08 17:42:21 · 538 阅读 · 0 评论 -
tf.compat.v1.placeholder
1 placeholder是占位符,相当于定义了一个变量,提前分配了需要的内存。但只有启动一个session,程序才会真正的运行。建立session后,通过feed_dict()函数向变量赋值。2 定义 dtype数据类型、shape数据形状、name名称3 实例...原创 2022-07-08 15:50:54 · 1660 阅读 · 0 评论 -
tf.device
device_name:要在上下文中使用的设备名称。指定使用设备。原创 2022-07-07 15:55:49 · 710 阅读 · 0 评论 -
tf.reset_default_graph
执行三次:会不断产生新的张量,加上tf.reset_default_graph(),在每次运行时会清空变量。 执行三次:不会产生新的张量。原创 2022-07-06 13:02:15 · 2201 阅读 · 0 评论 -
tf.layers.dense
全连接层fc ● inputs:输入● units: 输出维数● activation: 使用什么激活函数(神经网络的非线性层),● use_bias: 该层是否使用偏差(默认使用True)● kernel_initializer:权重矩阵的初始化函数。 如果为None(默认值),则使用tf.get_variable使用的默认初始化程序初始化权重。● bias_initializer:bias的初始化函数。● kernel_regularizer:权重矩阵的正则函数。● bias_reg原创 2022-07-06 12:30:27 · 473 阅读 · 0 评论 -
tf.sigmoid
tf.sigmoid 别名 tf.nn.sigmoid原创 2022-07-06 12:08:51 · 867 阅读 · 0 评论 -
tf.matmul
实例1原创 2022-07-06 11:46:29 · 2142 阅读 · 0 评论 -
tf.nn.bias_add
实例1:原创 2022-07-06 10:40:17 · 860 阅读 · 1 评论 -
tf.variable_scope
TensorFlow中的变量一般就是模型的参数。当模型复杂的时候共享变量会无比复杂。官网给了一个case,当创建两层卷积的过滤器时,每输入一次图片就会创建一次过滤器对应的变量,但是我们希望所有图片都共享同一过滤器变量,一共有4个变量:conv1_weights,conv1_biases,conv2_weights, and conv2_biases。通常的做法是将这些变量设置为全局变量。但是存在的问题是打破封装性,这些变量必须文档化被其他代码文件引用,一旦代码变化,调用方也可能需要变化。还有一种保证封装性的原创 2022-07-04 21:28:19 · 4409 阅读 · 0 评论