
tensorflow
qq_38721353
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
tensorboard
tensorboard是tensorflow训练网络的可视化工具。这篇博客主要论述tf.summary怎样记录训练过程中的标量信息。tf.summary.scalar(tags, values, collections=None, name=None)用来记录标量信息tags:tensorboard中的名字values:要记录的标量信息但是该函数并不会立刻执行,只有当sess.run...原创 2020-03-13 20:29:28 · 149 阅读 · 0 评论 -
tf.stack & tf.unstack
tf.stack(values, axis=0, name=‘stack’)value:一个tensor的list axis:stack的维度output:一个tensor,rank(output)=rank(value)+1如果value中的tensor形状为(A,B,C)axis=0,output的形状为(N,A,B,C)axis=1,output的形状为(A,N,B,C)和np.stack()的操作是一样的tf.concat(values, axis, nam原创 2020-06-15 17:41:01 · 163 阅读 · 0 评论 -
tf.contrib.rnn.BasicLSTMCell
首先我们先来看一下RNN的内部结构:再看一下LSTM的内部结构:LSTM的讲解请看这篇博客:https://blog.youkuaiyun.com/pipisorry/article/details/78361778tensorflow中实现这个功能的函数是tf.contrib.rnn.BasicLSTMCell()这个函数实现的最基本的LSTM函数的功能,即上面说的功能,不加peephole...原创 2020-03-19 12:05:48 · 2936 阅读 · 0 评论 -
tensorflow的随机数生成函数与常数生成函数
tensorflow有4个随机数生成函数,tf.random_normaltf.truncated_normaltf.random_uniformtf.random_gamma下面依次介绍这4个生成器tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)生成服从正态分布...原创 2020-03-11 10:59:40 · 547 阅读 · 0 评论 -
tf.equal()、tf.cast()和tf.reduce_mean 实现卷积神经网络求精度
equal(x, y, name=None)逐元素的比较x和y是否相等,所以要求x和y的维度相等,并且要求x和y的数据类型相同,否则报错。返回的是跟x、y维度相同的True/False矩阵>>> import tensorflow as tf>>> sess=tf.Session()>>> sess.run(tf.equal([1,2,...原创 2020-03-09 12:01:15 · 333 阅读 · 0 评论 -
tf.reshape、np.reshape和tf.get_shape和np.shape
tf.reshape(): 改变张量的维度np.reshape():改变array的维度tf.get_shape()是获取张量的维度np.shape是获取array的维度tf的两个都是方法,np改变大小是方法,获取大小是属性tf测试代码>>> a=tf.constant([[1,2,3],[4,5,6]])>>> tf.reshape(a,(3,2...原创 2020-02-28 23:35:02 · 1336 阅读 · 0 评论 -
tf.layers.dense()
对输入的最后一层做全连接原创 2020-02-28 23:17:43 · 165 阅读 · 0 评论 -
tf.nn.embedding_lookup
tf.nn.embedding_lookup(params, ids)params: 一个张量或者数组ids: 一个整型列表该函数的目的是从params矩阵中返回行索引=ids中的元素的行向量组成矩阵import tensorflow as tftable = tf.Variable(tf.random_normal([10, 5]))b = tf.nn.embedding_look...原创 2020-02-27 20:32:45 · 141 阅读 · 0 评论 -
tf.nn.conv2d
tf.conv2d做的是二维卷积,在输入的宽度和高度上同时卷积,二维卷积主要是做图片卷积。下面对tf.nn.conv2d的参数进行讲解。tf.nn.conv2d (input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)input:[batch, in_height, in_widt...原创 2020-02-26 20:19:50 · 173 阅读 · 0 评论 -
tf.nn.conv1d
1维卷积是在词维度上进行卷积。卷积核是二维的,卷积核的列和词向量的列数相同,只需指定卷积核的宽度,即二维矩阵的行数。tf.nn.conv1d(value, filters, stride, padding)value: [batch, in_width, in_channels]batch是输入文本的个数in_width是样本的单词个数in_channels是每个单词的维度(float...原创 2020-02-26 18:32:57 · 274 阅读 · 0 评论