
Tensorflow
文章平均质量分 65
Tensorflow
CodeJames
重庆大学研究生毕业,从事IOT后台开发,同名G.Z.H
展开
-
深度学习中常见的激活函数
激活函数的作用是:去线性化,因为在更多的回归和分类中,并不是一条线或者一个平面能够划分的,很多都是非线性的,所有激活函数的作用就凸显了;1.ReLU函数:2.sigmoid函数: 3.tanh函数: ...原创 2018-10-22 15:49:26 · 265 阅读 · 0 评论 -
tf.clip_by_value()是啥?
tf.clip_by_value(1-y,1e-10,1.0),这个 语句是在tensorflow实战Google深度学习框架中看见的,可以参看63页,运用的是交叉熵而不是二次代价函数。功能:可以将一个张量中的数值限制在一个范围之内。(可以避免一些运算错误:可以保证在进行log运算时,不会出现log0这样的错误或者大于1的概率)参数:(1)1-y:input数据(2)1e-10、1.0是对数据...原创 2018-10-21 21:45:04 · 27820 阅读 · 0 评论 -
tensorflow学习笔记
question1:What's mean of (trainable=False) in the statement of step=tf.Variable(0,trainable=False) ?设定trainable=False 可以防止该变量被数据流图的 GraphKeys.TRAINABLE_VARIABLES 收集,这样我们就不会在训练的时候尝试更新它的值。2.tf.train...原创 2018-10-23 19:00:51 · 187 阅读 · 0 评论 -
MNIST转TFRecord样例
import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataimport numpy as np#生成整数型的属性def _int64_feature(value): return tf.train.Feature(int64_list=tf.train.Int64List(v...原创 2018-11-03 10:18:05 · 367 阅读 · 0 评论