
TensorFlow
文章平均质量分 90
TensorFlow
呆呆的猫
爱发呆 爱抹茶 一直在路上
展开
-
【TensorFlow 入门】6、eval 函数
eval() 其实就是tf.Tensor的Session.run() 的另外一种写法,但两者有差别eval(): 将字符串string对象转化为有效的表达式参与求值运算返回计算结果eval()也是启动计算的一种方式。基于Tensorflow的基本原理,首先需要定义图,然后计算图,其中计算图的函数常见的有run()函数,如sess.run()。同样eval()也是此类函数,要注意的是,ev原创 2018-02-03 18:13:10 · 20603 阅读 · 2 评论 -
【TensorFlow 入门】7、定义图变量的方法
1. tf.Variabletf.Variable.init(initial_value, trainable=True, collections=None, validate_shape=True, name=None) 参数名称 参数类型 参数含义 initial_value 所有可以转换为Tensor的类型 变量的初始值(必须给定的值)原创 2018-02-04 16:13:16 · 1320 阅读 · 1 评论 -
【TensorFlow 入门】3、with 语句
with语句with 语句:要使用 with 语句,首先要明白上下文管理器这一概念,有了上下文管理器,with 语句才能工作。 什么是上下文管理器: 这个管理器就是在对象内实现了两个方法:enter() 和exit() enter()方法会在with的代码块执行之前执行,exit()会在代码块执行结束后执行。 exit()方法内会自带当前对象的清理方法。原创 2018-02-02 22:46:21 · 10751 阅读 · 4 评论 -
【Tensorflow 入门】9、莫烦 Tensorflow 教程 15~22 节课笔记
RNN对于处理有序的数据很有效,预测序列化的数据。原创 2018-03-29 16:29:13 · 12388 阅读 · 8 评论 -
【TensorFlow 入门】2、优化器函数 Optimizer
因为大多数机器学习任务就是最小化损失,在损失定义的情况下,后面的工作就交给了优化器。因为深度学习常见的是对于梯度的优化,也就是说,优化器最后其实就是各种对于梯度下降算法的优化。常用的optimizer类Optimizer GradientDescentOptimizer AdagradOptimizer AdagradDAOptimizer MomentumOptimi原创 2018-02-02 18:49:15 · 10731 阅读 · 1 评论 -
【TensorFlow 入门】5、激活函数
TensorFlow提供了多种激活函数1. sigmoid函数tf.sigmoid(x, name = None) == tf.nn.sigmoid(x, name = None)# y = 1 / (1 + exp(-x)) Computes sigmoid of x element-wise. Specifically, y = 1 / (1 + exp(-原创 2018-02-03 15:45:10 · 7074 阅读 · 1 评论 -
【TensorFlow 入门】4、tf.nn 库
tf.nn,tf.layers, tf.contrib模块有很多功能是重复的下面是对三个模块的简述:tf.nn :提供神经网络相关操作的支持,包括卷积操作(conv)、池化操作(pooling)、归一化、loss、分类操作、embedding、RNN、Evaluation。tf.layers:主要提供的高层的神经网络,主要和卷积相关的,tf.nn会更底层一些。tf.contrib:t原创 2018-02-03 15:42:34 · 19891 阅读 · 2 评论 -
【Tensorflow 入门】8、莫烦 Tensorflow 教程 1~14节课笔记
为Graph中的Tensor添加层级,TensorBoard会按照代码指定的层级进行展示,初始状态下只绘制最高层级的效果,点击后可展开层级看到下一层的细节。天呐,不知道哪天手残把系统变量的Path给删除了,整了一晚上安装Tensorboard都出错,终于发现了是Path的问题,以后还是乖乖的,啥也不敢删除了。网络越复杂,数据越多,参数越多,训练时间越长,但是往往为了解决复杂的问题,网络复杂度高不可避免,所以要使用某些方法使得网络运行更快。复杂的神经网络不能随意选择,会造成梯度爆炸和梯度消失的问题;原创 2018-03-28 11:24:15 · 32519 阅读 · 11 评论 -
【TensorFlow 入门】1、函数基础
一、np.random1. np.random.RandomState计算机实现的随机数生成通常为伪随机数生成器,为了使得具备随机性的代码最终的结果可复现,需要设置相同的种子值;np.random.randn(…) ⇒ rng = np.random.RandomState(123)rng.randn(…)2. np.random.uniform()从均匀分布[...原创 2018-02-06 16:08:20 · 888 阅读 · 1 评论 -
【Tensorflow 入门】10、莫烦 Tensorflow 教程:强化学习
强化学习(Reinforece Learning,RL)一、什么是强化学习强化学习是机器学习大家族中的一大类, 使用强化学习能够让机器学着如何在环境中拿到高分, 表现出优秀的成绩. 而这些成绩背后却是他所付出的辛苦劳动, 不断的试错, 不断地尝试, 累积经验, 学习经验。其他许多机器学习算法中学习器都是学得怎样做,而RL是在尝试的过程中学习到在特定的情境下选择哪种行动可以得到最大的...原创 2018-03-30 21:28:54 · 9528 阅读 · 1 评论 -
TensorFlow:实战Google深度学习框架(六)图像数据处理
第七章 图像数据处理7.1 TFRecord输入数据格式TensorFlow提供了一种统一的格式来存储数据——TFRecord格式7.1.1 TFRecord格式介绍7.1.2 TFRecord样例程序7.2 图像数据处理7.2.1 TensorFlow图像处理函数1. 图像编码处理2. 图像大小调整3. 图像翻转4. 图像色彩调整5. 处理标注框7.2....原创 2018-02-08 19:41:07 · 2896 阅读 · 1 评论 -
TensorFlow:实战Google深度学习框架(三)深层神经网络
第四章 深层神经网络4.1 深度学习与深层神经网络4.1.1 线性模型的局限性4.1.2 激活函数实现非线性化4.1.3 多层网络解决异或问题4.2 损失函数4.2.1 经典损失函数1. 交叉熵(给定两个概率分布ppp和qqq)2. 均方误差(MSE,Mean Squared Error)4.2.2 自定义损失函数4.3 神经网络优化算法4.4 神经网络的进一...原创 2018-02-08 19:40:33 · 1014 阅读 · 1 评论 -
TensorFlow:实战Google深度学习框架(五)图像识别与卷积神经网络
第6章 图像识别与卷积神经网络6.1 图像识别问题简介及经典数据集6.2 卷积神经网络简介6.3 卷积神经网络常用结构6.3.1 卷积层6.3.2 池化层6.4 经典卷积神经网络模型6.4.1 LeNet-5模型6.4.2 Inception模型6.5 卷积神经网络实现迁移学习6.5.1 迁移学习的介绍第6章 图像识别与卷积神经网络本章通...原创 2018-02-08 19:40:58 · 3626 阅读 · 1 评论 -
TensorFlow:实战Google深度学习框架(一)计算、数据、运行模型
第3章 TensorFlow入门3.1 TensorFlow计算模型——计算图3.1.1 计算图的概念3.1.2 计算图的使用3.2 TensorFlow数据模型——张量3.2.1 张量的概念3.2.2 张量的使用3.3 TensorFlow运行模型——会话第3章 TensorFlow入门3.1 TensorFlow计算模型——计算图计算图...原创 2018-02-08 19:49:47 · 1099 阅读 · 0 评论 -
TensorFlow:实战Google深度学习框架(四)MNIST数据集识别问题
第5章 MNIST数字识别问题5.1 MNIST数据处理5.2 神经网络的训练以及不同模型结果的对比5.2.1 TensorFlow训练神经网络5.2.2 使用验证数据集判断模型的效果5.2.3 不同模型效果比较5.3 变量管理5.4 TensorFlow模型持久化5.4.1 持久化代码实现1. ckpt文件的保存2. 加载已经保存的TensorFlow模型5.4...原创 2018-02-08 19:40:46 · 2494 阅读 · 0 评论 -
TensorFlow:实战Google深度学习框架(二)实现简单神经网络
3.4 TensorFlow实现神经网络3.4.1 TensorFlow游乐场3.4.2 前向传播3.4.3 神经网络参数与TensorFlow变量变量和张量的关系变量的三个属性:张量、维度、类型3.4.4通过TensorFlow训练神经网络模型3.4.5 完整的神经网络样例程序从程序中总结生成神经网络的步骤第三章小结3.4 TensorFl...原创 2018-02-08 19:40:21 · 1080 阅读 · 0 评论