
TensorFlow 2.0应用与实战
文章平均质量分 83
TensorFlow深度学习框架
AI算法联盟
用数学思维解决人工智能问题
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
tensorflow-gpu2.4.1安装配置详细步骤
tensorflow-gpu2.4.1配置详细步骤原创 2022-07-31 14:39:25 · 1581 阅读 · 0 评论 -
基于Tensorflow用Yolov3训练自己的数据集
背景说明:本次训练的模型分五类,分别为['whiteboard','chair','diningtable','sofa','tvmonitor']。训练数据集大约1000张。环境:Window 10 系统,python=3.6,tensorflow=1.15一、数据准备1.用Labelimg标注好图像训练集,放在D:/AI\yolov3_whiteboard/data/data...原创 2020-04-24 21:37:25 · 2053 阅读 · 2 评论 -
Tensorflow简单搭建线性模型
纯码练习,具体看注释适用人群:熟悉python,tensorflow初学者或了解TensorFlow再次知识回顾。import tensorflow as tfimport numpy as np#使用Numpy 随机生成样本数据,总共100个样本点x_data = np.float32(np.random.rand(2,100))y_data = np.dot([0.100...原创 2019-10-10 16:14:45 · 266 阅读 · 0 评论 -
Tensorflow多线程输入数据处理框架——队列
一、队列在Tensorflow中,队列不仅是一种数据结构,也是多线程输入数据处理框架的基础。队列和变量类似,都是计算图上有状态的节点,其他节点可以修改它的内容,对于变量,可以通过赋值操作改变变量的取值。对于队列,其他节点可以把新元素插入到队列后端,也可以把队列前端的元素删除,修改队列状态的操作主要有Enqueue(进队列)、EnqueueMany()、Dequeue(出队列)。在使用队列前需要...原创 2019-11-11 17:52:47 · 373 阅读 · 0 评论 -
TFRecords格式数据的保存和读取
使用Tensorflow训练神经网络时,我们可以用多种方式来读取自己的数据。如果数据集比较小,而且内存足 够大,可以选择直接将所有数据读进内存,然后每次取一个batch的数据出来。如果数据较多,可以每次直接从硬 盘中进行读取,这种方式的读取效率比较低。Tensorflow官方推荐的一种较为高效的数据读取方式——TFRecords, TFRecords实际上是一种二进制文件,虽然它不如其他格式好理解...原创 2019-11-08 18:02:04 · 355 阅读 · 0 评论 -
Tensorflow滑动平均模型tf.train.ExponentialMovingAverage解析
语法:tf.train.ExponentialMovingAverage(decay,num_updates=None)参数说明:decay为衰减率。控制模型更新的速度,它的值越大模型越趋于稳定。实际应用中,decay一般会设置为十分接近1的常数(0.99或0.999)。 num_updates动态设置decay的大小。使得模型在训练的初始阶段更新得更快。ExponentialMo...原创 2019-11-08 16:56:37 · 338 阅读 · 0 评论 -
神经网络训练过程避免过拟合问题的利器——dropout
L1、L2正则化是通过修改代价函数来实现防止过拟合的,而 Dropout则是通过修改神经网络本身来实现 的,它是在训练网络时用的一种技巧(trike)。在模型训练时按照一定的概率 暂时让网络某些隐含层节点的权 重不工作(也称丢弃),不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来, 对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。对于随机梯度下降来说,由于是随机丢弃,...原创 2019-11-08 16:18:51 · 769 阅读 · 0 评论 -
神经网络训练过程避免过拟合问题的利器——正则化
神经网络在训练数据不够多时,或者overtraining时,常常会导致过拟合( overfitting )。随着训练过 程,网络在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大。为了避免过拟合问题, 一个常用的方法就是 正则化(Regularization),主要有 L1 正则化( L1-norm )和L2正则化(L2-norm)。L1正则化在原始...原创 2019-11-08 16:10:59 · 905 阅读 · 0 评论 -
Tensorflow灵活的学习率设置方法--指数衰减法
神经网络的学习率决定了参数每次更新的幅度,如果学习率过小,需要更多轮的迭代才能达到一个比较理 想的优化效果,如果过大,可能导致参数在极优值的两侧来回移动。TensorFlow提供了一种灵活的学习率设置 方法—— 指数衰减法语法:tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, ...原创 2019-11-08 14:39:16 · 823 阅读 · 0 评论 -
小批量训练集Batch_size生成器tf.train.slice_input_producer和tf.train.batch()函数的使用说明
一、语法:tf.train.slice_input_producer(tensor_list, num_epochs=None, shuffle=True, seed=None, capacity=32, shared_name=None, name=None)参数说明:tensor_list:包含一系列tensor列表,列表中tensor的第一维度值必须相等,如多少张图像对应多少个标签。...原创 2019-11-04 17:53:12 · 869 阅读 · 0 评论 -
Cifar10案例中tf.train.MonitoredSession()函数解读
MonitoredTrainingSession()从单词的字面意思理解是用于监控训练的回话,它集成了一些监控训练的组件,如记录日记、训练可视化、模型保存等等。它实例化后就会得到一个MonitoredSession对象,类似普通的Session。语法:tf.train.MonitoredSession(checkpoint_dir= train_dir, ...原创 2019-11-04 16:27:47 · 673 阅读 · 0 评论 -
使用TensorFlow模型持久化保存和加载(案例实战)
一、语法解释使用tf.train.Saver()类来保存模型的参数:saver = tf.train.Saver() #生成一个保存对象然后在会话Session()中以当前环境Session为参数,保存训练好的模型参数到本地磁盘:saver.save(sess,'model/mymodel') #保存到当前路径下的model文件中,并以mymodel为文件名前缀tf.tr...原创 2019-10-12 16:53:48 · 256 阅读 · 0 评论 -
使用TensorFlow搭建模型之卷积神经网络详细解读(案例实战)
这个仅作为代码练手,读懂代码即可,熟悉使用TensorFlow网络搭建的流程。代码演示:from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tfmnist = input_data.read_data_sets('mnistdata/',one_hot = True) #加载数...原创 2019-10-12 11:44:16 · 326 阅读 · 2 评论 -
使用TensorFlow搭建模型之神经网络详细解读(案例实战)
上篇的模型中只是简单使用softmax和交叉熵,模型准确率达91%。这里再进一步提升模型准确率,模型改用神经网络。 人工神经网络以其具有学习、自组织、较好的容错性和优良的非线性逼近能力,受到众多领域学者的关注。在实际应用中,80%~90%的人工神经网络模型是采用误差反传播算法或其变化形式的网络模型(简称BP网络),目前主要应用于函数逼近、模式识别、分类和数据压缩或数据挖掘。一、神经网...原创 2019-10-11 16:34:50 · 668 阅读 · 0 评论 -
使用TensorFlow搭建模型之softmax模型详细解读(案例实战)
一、mnist数据集说明1.mnist数据集包含了各种手写数字图片,像素大小为28*28,灰色图像(图像形状为(28,28,1)),且有对应的标签,标注出这是数字几。图片像素数值介于0到1之间。如图对应的标签为5,0,4,1。2.mnist数据集有55000张训练图像,10000张测试图像和5000张验证图像。784是由28*28平铺张开得到。from tensorflow.exam...原创 2019-10-11 11:46:12 · 1064 阅读 · 0 评论