
TensorFlow函数精讲
文章平均质量分 73
TensorFlow函数精讲系列
SophiaCV
微信搜索【计算机视觉联盟】,回复关键字【西瓜书手推笔记】获得Github标星2000+的机器学习笔记PDF版本。我的微信:PursueWin 一起进步学习
展开
-
【TensorFlow】TensorFlow函数精讲之tf.truncated_normal()
tf.truncated_normal()函数是一种“截断”方式生成正太分布随机值,“截断”意思指生成的随机数值与均值的差不能大于两倍中误差,否则会重新生成。此函数有别于tf.random_normal()正太函数,请参考本博客关于tf.random_normal()函数的介绍(TensorFlow函数之tf.random_normal())tf.truncated_normal()函...原创 2018-11-13 16:34:17 · 2661 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.nn.conv2d()
博客之星评选,谢谢您的支持!微信、qq五连击投票(无需关注、无需登录)人工智能博士(投票链接):http://m234140.nofollow.ax.mvote.cn/opage/4fddfa73-b1fa-b047-f666-98f84c9c25c4.htmltf.nn.conv2d是TensorFlow里面实现卷积的函数,是搭建卷积神经网络比较核心的一个方法。函数格式:tf...原创 2018-11-29 16:53:24 · 2783 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.nn.max_pool()和tf.nn.avg_pool()
(最大池化和平均池化)(附代码详解)原创 2018-11-30 08:36:32 · 9894 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.train.ExponentialMovingAverage()
tf.train.ExponentialMovingAverage来实现滑动平均模型。格式:tf.train.ExponentialMovingAverage(decay,num_step)参数说明:第一个参数:decay,衰减率,一般设置接近1的数。第二个参数:num_step,动态设置decay的大小。tf.train.ExponentialMovingAverage使...原创 2018-11-17 21:42:17 · 571 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.contrib.layers.l1regularizer()-12_regularizer(lambda)
TensorFlow中计算L1正则化和L2正则化的函数:L1正则化:tf.contrib.layers.l1regularizer(lambda)(w)函数,它可以返回一个函数,这个函数可以计算一个给定参数的L1正则化项的值。L2正则化:tf.contrib.layers.12_regularizer(lambda)(w)函数可以计算L2正则化项的值 。lambda参数表示了正则化...原创 2018-11-17 20:45:32 · 6080 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之 tf.random_normal()
tf.trandom_normal()函数是生成正太分布随机值此函数有别于tf.truncated_normal()正太函数,请参考本博客关于tf.truncated_normal()函数的介绍(TensorFlow函数之tf.truncated_normal())tf.random_normal()函数的格式为:tf.random_normal(shape, mean, stdd...原创 2018-11-13 16:41:25 · 1057 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.contrib.layers.flatten()
tf.contrib.layers.flatten(A)函数使得P保留第一个维度,把第一个维度包含的每一子张量展开成一个行向量,返回张量是一个二维的,返回的shape为[第一维度,子张量乘积)。一般用于卷积神经网络全连接层前的预处理,因为全连接层需要将输入数据变为一个向量,向量大小为[batch_size, ……]如下边,pool是全连接层的输入,则需要将其转换为一个向量。假设pool是一...原创 2018-12-02 22:44:40 · 9978 阅读 · 5 评论 -
【TensorFlow】TensorFlow函数精讲之tf.constant()
tf.constant()可以实现生成一个常量数值。tf.constant()格式为:tf.constant(value,dtype,shape,name)参数说明:value:常量值 dtype:数据类型 shape:表示生成常量数的维度 name:数据名称下边生成一个0.1常量大小为2*2的数据:import tensorflow as tfv = tf.c...原创 2018-11-13 16:56:39 · 2188 阅读 · 1 评论 -
【TensorFlow】TensorFlow函数精讲之 tf.nn.relu()
tf.nn.relu()函数是将大于0的数保持不变,小于0的数置为0,函数如图1所示。ReLU函数是常用的神经网络激活函数之一。图1 ReLU函数图像下边为ReLU例子:import tensorflow as tfv = tf.constant([-3, 5, 6, -6,9])sess = tf.Session()print('v的原始值为:', end=...原创 2018-11-13 17:19:11 · 1760 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.clip_by_value()
tf.clip_by_value()函数可以将一个张量中的数值限制在一个范围之内。下边通过简单的例子说明次函数的用法:import tensorflow as tfv = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])print(tf.clip_by_value(v, 2.5, 4.5).eval())输出为:[[2.5 2....原创 2018-11-12 10:41:19 · 782 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之value()
eval()函数是对一个张量的操作。假设有一个tensor a,对tensor使用eval()函数:a.eval()等价于Session.run(a)。下边列举一个简单关于eval和run的例子:import tensorflow as tfv = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])print(v.eval()) ...原创 2018-11-12 11:01:28 · 1706 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.nn.softmax_cross_entropy_with_logits
tf.nn.softmax_cross_entropy_with_logits()函数是TensorFlow中计算交叉熵常用的函数。后续版本中,TensorFlow更新为:tf.nn.softmax_cross_entropy_with_logits_v2格式为:cross_entropy = tf.nn.softmax_cross_entropy_with_logits(label...原创 2018-11-18 21:08:04 · 894 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.get_variable()和tf.get_variable_scope()
目录1、tf.get_variable()2、tf.variable_scope()3、tf.variable_scope()函数嵌套1、tf.get_variable()tf.get_variable()用来创建变量时,和tf.Variable()函数的功能基本等价。v = tf.get_variable("v", shape=[1], initializer=tf....原创 2018-11-20 22:05:43 · 1187 阅读 · 0 评论 -
【TensorFlow】TensorFlow函数精讲之tf.train.exponential_decay()
tf.train.exponential_decay实现指数衰减率。通过这个函数,可以先使用较大的学习率来快速得到一个比较优的解,然后随着迭代的继续逐步减小学习率,使得模型在训练后期更加稳定。tf.train.exponential_decay格式:tf.train.exponential_decay(learning_rate, global_, decay_steps, decay_r...原创 2018-11-17 16:22:02 · 478 阅读 · 0 评论 -
一文读懂经典卷积网络模型——LeNet-5模型(附代码详解、MNIST数据集)
LeNet-5模型是Yann LeCun教授与1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据集上,LeNet-5模型可以达到大约99.2%的正确率。LeNet-5模型总共...原创 2018-12-02 20:23:27 · 10637 阅读 · 7 评论 -
解决模型加载NotFoundError (see above for traceback) Key v1 not found in checkp错误
NotFoundError (see above for traceback): Restoring from checkpoint failed.Key v1 not found in checkpoint出现这样的问题,大多是在使用时,checkpoint文件中的变量名和调用的文件名不匹配造成的。解决方法就是查看checkpoint文件中的变量名,将程序调用变量名修改为checkpoint文件中的变量名即可解决问题。本文具体讲如何查看checkpoint文件中的变量名、修改程序调用变量。原创 2018-12-09 20:47:52 · 8552 阅读 · 7 评论 -
干货| LeNet-5模型详解(附Python详细代码及注释)
LeNet-5模型是Yann LeCun教授与1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据集上,LeNet-5模型可以达到大约99.2%的正确率。LeNet-5模型总共有7层,下图展示了LeNet-5模型的架构。LeNet-5模型结构...原创 2018-12-17 09:09:31 · 9679 阅读 · 2 评论 -
TensorFlow中查看checkpoint文件中的变量名和对应值
在加载模型时, 需要知道checkpoint中变量名称,一下代码可以查看TensorFlow中checkpoint文件中的变量名:#!/usr/bin/env python# -*- coding:utf-8 -*-import osfrom tensorflow.python import pywrap_tensorflowmodel_dir = "Saved_model"che...原创 2018-12-09 20:25:19 · 3855 阅读 · 0 评论 -
TensorFlow入门:TensorFlow工作原理
目录1、TensorFlow计算模型一一计算图2、TensorFlow数据模型——张量3、TensorFlow运行模型——会话1、TensorFlow计算模型一一计算图(1)计算图的概念TensorFlow 的名字中己经说明了它最重要的两个概念一一Tensor和Flow。Tensor就是张量,张量可以被简单地理解为多维数组。Flow则体现了它的计算模型。Flow翻译成中文就是...原创 2018-12-25 15:24:48 · 5012 阅读 · 0 评论