
tensorflow
文章平均质量分 56
xxiaozr
这个作者很懒,什么都没留下…
展开
-
Tensorflow batch_normalization
Tensorflow中实现batch_normalization 的主要是两个命令tf.nn.moments() 和 tf.nn.batch_normalization()tf.nn.moments(x,axes,shift=None,name=None,keep_dims=False) x: a tensor 输入 axes:array of ints(list似乎也可以)计算means和va原创 2017-05-10 16:08:57 · 406 阅读 · 0 评论 -
搞科研(时序信号)
数据是看电影的fmri信号,一个人大约有两万多个体素,每个体素有530时间长度的信号 将一个体素的信号输入到GAN网络中,生成时序信号数据预处理包括将mat格式的数据转化成np格式输入网络模型构建函数 生成网络是一个多层感知机,包括四层,每一层是一个fully_connected层 该函数的输出是weight和input相乘,默认参数normalizer_fn = None,如果还有 bi原创 2017-12-08 21:53:35 · 1517 阅读 · 0 评论 -
Linux 配置tensorflow
protobuf 的安装 protobuf-master使用源码编译的时候报错,在make check 的时 候有两项编译不成功 使用prtobuf-2.6.1安装tar -zvxf protobuf-2.6.1.tar.gz apt-get install build-essential cd protobuf-2.6.1/ ./configure make make check sud原创 2017-12-18 13:50:01 · 282 阅读 · 0 评论 -
生成对抗网络
生成对抗网络判别器使用多层感知机判断样本来自于生成器还是真实数据 生成网络用随机的噪声经过多层感知机生成样本以迷惑判别器,最大化判别器犯错的可能性网络的损失函数是: D(x)表示 x 属于真实数据而不是生成数据的概率 G(z)表示从噪声 z 生成数据 这是一个极小极大问题,固定G,优化D来最大化V,固定D,优化G来最小化V,两者形成对抗。 如图是训练过程,假设我们已经有一个接近真实分布原创 2017-09-12 14:04:35 · 851 阅读 · 0 评论 -
tensorflow的一些笔记
模型的保存加载checkpoint 文件保存了一个目录下所有模型文件的文件列表 model.ckpt.meta 保存计算图模型 model.ckpt 保存了程序中每一个变量的取值,是(key,value)列表 Saver类可以处理图中数据和变量数据的保存和恢复,默认情况下,Saver类能处理默认图中包含的所有变量main(): ...//加载设计好的操作,即默认图 saver原创 2017-12-06 11:18:33 · 273 阅读 · 0 评论 -
tensorflow example rnn
from __future__ import print_functionimport tensorflow as tf from tensorflow.contrib import rnn# Import MNIST data from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_dat原创 2017-09-17 17:25:54 · 479 阅读 · 0 评论 -
tensorflow gpu使用情况
tensorflow 默认使用所有gpu的所有显存,只是运行一个小程序,也会占用所有的gpu资源。nvidia-smi -l #实时返回gpu的使用情况四个gpu分别为0,1,2,3 可以使用cuda命令进行gpu的选择: CUDA_VISIBLE_DEVICES=1 ,只使用gpu 1 CUDA_VISIBLE_DEVICES=0,1 使用gpu 0 和 1 在使用tensorflow的时候转载 2017-06-26 13:26:42 · 4407 阅读 · 1 评论 -
tensorflow concat
tf.concat()函数是几个矩阵的函数 1.0之前的参数是形如tf.concat(3,[branch1,branch2,branch3,branch4]) 第一个参数是需要在哪个维度上进行叠加,3指的是在第四维上进行叠加。branch1,2,3,4是需要叠加的矩阵。 1.0之后参数位置变换,tf.concat([branch1,branch2,…],3)原创 2017-06-05 19:12:53 · 518 阅读 · 0 评论 -
搞科研(三)
sparsity autoencoder在 4fba 服务器上进入sparsity autoencoder 路径后 ,运行sparsityAutoencoder.py 文件这个文件使用python文件写的一个程序,并没有用到 gpu 加速,只是简单地一层编码层和一层解码层,产生两个 weight 和 bias分别是 W1[hidden_size,visible_size] ,W2[visible_...原创 2018-03-13 14:45:02 · 297 阅读 · 0 评论