
TensorFlow学习
dreamer777777
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Tensorflow学习(9)-通过MNIST数字识别问题学习(3)- 模型持久化
持久化代码实现TensorFlow提供了一个非常简单的API来保存和还原一个神经网络模型。这个API是tf.train.Saver类。以下代码给出保存TensorFlow计算图的方法。import tensorflow as tfv1 = tf.Variable(tf.constant(1.0,shape=[1],name="v1"))v2 = tf.Variable(tf.c...原创 2019-11-21 14:04:00 · 185 阅读 · 0 评论 -
Tensorflow学习(8)-通过MNIST数字识别问题学习(2)-变量管理
在Tensorflow学习(7)-通过MNIST数字识别问题学习(1)中,将计算神经网络前向传播结果的过程抽象成了一个函数。即def inference(input_tensor, avg_class, weights1, biases1, weights2, biases2):在定义中可看到,这个函数的参数包括了神经网络中的所有参数。然而,当网络结构更复杂、参数更多时。就需要一个...原创 2019-11-20 22:16:26 · 297 阅读 · 0 评论 -
Tensorflow学习(7)-通过MNIST数字识别问题学习(1)
MNIST数据处理TensorFlow提供了一个类来处理MNIST数据,可以下载并自动转换格式。下面给出样例程序from tensorflow.examples.tutorials.mnist import input_data# 载入MNIST数据集mnist = input_data.read_data_sets("path/",one_hot=True)print(...原创 2019-11-19 17:36:45 · 230 阅读 · 0 评论 -
Tensorflow学习(5)-神经网络进一步优化(学习率、过拟合问题)
学习率的设置tf.train.exponential_decay()函数会指数级的减小学习率,使得模型在训练后期更加稳定。它实现了以下代码的功能decayed_learning_rate = learning_rate * decay_rate**(global_step_/decay_steps)该函数的使用global_steps = tf.Variable(0)...原创 2019-11-17 15:30:36 · 1341 阅读 · 0 评论 -
Tensorflow学习(4)-Tensorflow中实现神经网络的训练过程的大致框架
import tensorflow as tfbatch_size = n# 2是输出节点的个数x = tf.placeholder(tf.float32, shape=[batch_size, 2], name='x-input')y_ = tf.placeholder(tf.float32, shape=[batch_size, 1], name='y-input')# 定义神...原创 2019-11-17 10:54:18 · 148 阅读 · 0 评论 -
Tensorflow学习(3)-损失函数
激活函数去线性化常用的有tf.nn.relu、tf.sigmoid(0~1)、tf.tanh(-1~1)。经典损失函数-分类问题(交叉熵cross entropy)cross_entropy = -tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1)))注意这里的y_,y可能为一个矩阵,需要注意的是要使用“*”而不是使用tf.m...原创 2019-11-16 21:09:24 · 188 阅读 · 0 评论 -
Tensorflow学习(2)-实现神经网络
神经网络的前向传播过程在计算中表示为矩阵相乘的过程具体内容在书上3.4.2实现神经网络的前向传播过程输入层两个节点,隐藏层3个,输出层一个# 声明w1,w2两个变量,通过seed参数设定随机种子,保证每次运行结果一样# stddev=1 表示随机数标准差为一w1 = tf.Variable(tf.random_normal((2, 3), stddev=1, seed=1))...原创 2019-11-16 13:44:05 · 259 阅读 · 0 评论 -
Tensorflow学习(1)-计算图的使用,会话
计算图计算图是Tensorflow值最基本的一个概念,Tensorflow中所有计算都会转化为计算图上的节点。Tensorflow会自动生成一个默认的计算图。不同计算图上的张量和运算都不会共享,在以下代码中示意了如何在不同计算图上定义和使用变量import tensorflow as tfg1=tf.Graph()with g1.as_default(): b=tf.ge...原创 2019-11-16 10:40:00 · 246 阅读 · 0 评论 -
Tensorflow学习(6)-神经网络进一步优化(滑动平均模型)
滑动平均模型TensorFlow中提供了tf.train.ExponentialMovingAverage来实现滑动平均模型。在初始化ExponentialMovingAverage时,需要提供一个衰减率(decay)。这个衰减率用于控制模型更新的速度。ExponentialMovingAverage对每一个变量会维护一个影子变量(shadow variable),这个影子变量的初始值...原创 2019-11-17 16:45:59 · 177 阅读 · 0 评论