TensorFlow
文章平均质量分 86
今晚打佬虎
一名二手的人工智能表演艺术家!Keep Learning, stay awesome
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
TensorFlow基础:Graph与Variable
tensorflow的Graph对象------------------在tensorflow库在被加载的时候,它会自动创建一个Graph对象,并把它作为默认的数据流图.所以在加载库后,就可以在默认图中创建Op,tensor对象.如果要隔离多个不存在依赖关系的模型时,可以创建多个Graph对象,# 创建graph的语法很简单import tensorflow as tf# 此时有一个默认的图原创 2017-06-28 19:53:30 · 5392 阅读 · 1 评论 -
TF,数据转换和softmax()
数据来自kaggle的竞赛数据Titanci,train.csvimport tensorflow as tf读取CSV# tf提供了读取csv文件的方法data_queue = tf.train.string_input_producer(['train.csv'])reader = tf.TextLineReader(skip_header_lines = 1)key , value =转载 2017-07-18 17:59:27 · 2994 阅读 · 0 评论 -
TensorFlow进阶:CNN对CIFAR10图像分类
用卷积神经网络来给,cifar10数据集进行分类,这是一个经典的数据集,它包含60000张32x32的彩色图片,其中训练集50000张测试集10000张.照片的内容包含十个类别:airplane,automobile,bird,cat,deer,dog,frog,horse,ship和truck.各有6000张 在这个CNN中用到了新的正则化方法,分别是L2权重loss,和LRN(局部响应标准化原创 2017-07-09 14:48:31 · 16145 阅读 · 4 评论 -
卷积神经网络CNN:Tensorflow实现(以及对卷积特征的可视化)
本文主要是实现了一个简单的卷积神经网络,并对卷积过程中的提取特征进行了可视化. 卷积神经网络最早是为了解决图像识别的问题,现在也用在时间序列数据和文本数据处理当中,卷积神经网络对于数据特征的提取不用额外进行,在对网络的训练的过程当中,网络会自动提取主要的特征. 卷积神经网络直接用原始图像的全部像素作为输入,但是内部为非全连接结构.原创 2017-07-04 13:51:44 · 61940 阅读 · 77 评论 -
CNN卷积神经网络(二)
这里主要是对上一篇的Tensorflow搭建卷积神经网络模型进行了一些修改,并且在测试数据上对模型进行了测试,准确率99.3%# 卷积网络的训练数据为MNIST(28*28灰度单色图像)原创 2017-07-06 17:05:50 · 1113 阅读 · 0 评论 -
经典CNN之:VGGNet
VGGNet(Visual Geometry Group)VGGNet是牛津大学计算机视觉组和DeepMind公司共同研发一种深度卷积网络,并且在2014年在ILSVRC比赛上获得了分类项目的第二名和定位项目的第一名,VggNet一共有六种不同的网络结构,但是每种结构都有含有5组卷积,每组卷积都使用3x3的卷积核,每组卷积后进行一个2x2最大池化,接下来是三个全连接层.在训练高级别的网络时,可以先训低级别网络原创 2017-07-15 13:09:43 · 34206 阅读 · 2 评论 -
TensorFlow1.1搭建自编码网络
用Tensorflow搭建一个自编码网络(含有多个隐藏层),在MNIST数据上进行训练 自编码网络的作用是将输入的样本进行压缩到隐藏层,然后解压在输出层重建.所以输入层和输出层神经元的数量是相等的.在压缩的过程当中网络会除去冗余的信息(要限制隐藏层神经元的数量),留下有用的特征.类似与主成分分析PCA, 多个隐藏层能够学到更有意义的特征原创 2017-06-29 21:33:58 · 1082 阅读 · 0 评论 -
TensorFlow实践:经典CNN-AlexNet
AlexNetAlexNet在2012年被提出,并且它以显著的优势赢得了,2012年的ILSCRC比赛的冠军 AlexNet把CNN的基本原理应用到了更深的网络当中,并加入了一些新技术: 1,使用ReLU作为CNN的激活函数,证明了其效果在较深的网络当中超过了Sigmoid. 2,在训练网络时使用Dropout随机忽略一些神经元,来防止模型过拟合,主要用在全连接层使用. 3原创 2017-07-11 07:52:26 · 1814 阅读 · 0 评论 -
TensorFlow:作用域name_scope和variable_scope
Tensorflow中的名称作用域和变量作用域简单来说name_scope是给Op_name加前缀的,variable_scope是给变量variable_name和Op_name加前缀的.作用域在使用Tensorboard对Graph对象进行可视化的时候很有帮助,作用域会把一些Op划分到较大的语句块当中.使用tensorboard可视化数据流图的时候,每个作用域都对自己的Op进行封装,从而获得更好原创 2017-06-29 15:52:48 · 2450 阅读 · 0 评论 -
TensorFlow基础:Session(会话)
**Session(会话)** 在tensorflow中数据流图中的Op在得到执行之前,必须先创建Session对象, Session对象负责着图中所以Op的执行. Session 对象创建时有三个可选参数: 1.target,在不是分布式中使用Session对象时,该参数默认为空 2.graph,指定了Session对象中加载的Graph对象,如果不指定的话默认加载当前默原创 2017-06-29 10:53:16 · 10317 阅读 · 0 评论 -
TensorFlow基础知识:计算图中的Op,边,和张量
tensorflow是一个深度学习的开源工具,它的设计理念主要有以下两点: 1.计算图的定义和图的运算是分开的.tensorflow是一个’符号主义的库’.编程模式分为两类,命令式(imperative style)和符号式(symbolic style).命令式的程序很容易理解和调试,它按照原有的逻辑运行.符号式则相反,在现有的深度学习框架中,torch是命令式的,Caffe,M原创 2017-06-28 16:00:18 · 9264 阅读 · 2 评论
分享