
tensorflow
huahuazhu
这个作者很懒,什么都没留下…
展开
-
Linux下安装tensorflow
安装前提:已经安装了anaconda3。1、利用Anaconda创建一个python3.6的环境,环境名称为tensorflow ,输入下面命令:conda create –n tensorflow python=3.6。如下图所示,已经创建成功。2、启动tensorflow环境,使用命令:source activate tensorflow3、使用pip installt原创 2017-06-29 13:31:03 · 468 阅读 · 0 评论 -
TensorFlow学习--入门之基本使用
原文地址http://www.cnblogs.com/flyu6/p/5555161.html整体介绍使用 TensorFlow, 你必须明白 TensorFlow:使用图 (graph) 来表示计算任务.在被称之为 会话 (Session) 的上下文 (context) 中执行图.使用 tensor 表示数据.通过 变量 (Variable) 维护状态.使转载 2017-07-27 15:34:46 · 434 阅读 · 0 评论 -
Tensorflow学习---tf.nn.embedding_lookup
tf.nn.embedding_lookup(params,ids, partition_strategy=’mod’, name=None, validate_indices=True,max_norm=None)根据ids中的id,寻找params中的对应元素,可以理解为索引,所以ids中元素值不能超出params的第一维的维数值。比如,ids=[1,3,5],则找出params中下标原创 2017-08-14 14:56:55 · 698 阅读 · 0 评论 -
EAST文本检测与Keras实现
1. 引言之前介绍了文本检测中的CTPN方法,详情可参见《CTPN文本检测与tensorflow实现》,虽然该方法在水平文本的检测方面效果比较好,但是对于竖直文本或者倾斜的文本,该方法的检测就很差,因此,在该方法之后,很多学者也提出了各种改进方法,其中,有一篇比较经典的就是旷世科技在2017年提出来的EAST模型,论文的全称为《EAST: An Efficient and Accurat...转载 2019-03-27 14:13:16 · 2825 阅读 · 2 评论 -
win10(NVIDIA MX150) 安装tensorflow-gpu及keras
折腾了一天多TensorFlow-GPU的坑,安装了两次cuda。本篇基于NVIDIA GeForce MX150 安装 CUDA,cuDNN,Python(anaconda)TensorFlow-GPU(Windows10操作系统)安装顺序: 查看配置环境 —> CUDA Toolkit —> cuDNN —> Visual Studio 2015 Communi...原创 2019-04-13 14:32:32 · 4112 阅读 · 2 评论 -
吴恩达《神经网络与深度学习》课程笔记(5)-- 深层神经网络
本笔记主要参考了红色石头的笔记,在此表示感谢。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要介绍了浅层神经网络。首先介绍神经网络的基本结构,包括输入层,隐藏层和输出层。然后以简单的2 layer NN为例,详...原创 2019-05-06 10:46:11 · 754 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(4)-- 浅层神经网络
本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要介绍了向量化、矩阵计算的方法和python编程的相关技巧。并以逻辑回归为例,将其算法流程包括梯度下降转换为向量化的形式,从而大大提高了程序运算速度。本节课我们将从浅层...原创 2019-05-06 10:31:58 · 669 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(3)-- 神经网络基础之Python与向量化
本笔记参考了黄海广博士和红色石头的笔记内容。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要介绍了逻辑回归,以输出概率的形式来处理二分类问题。我们介绍了逻辑回归的Cost function表达式,并使用梯度下降...原创 2019-05-06 10:11:07 · 459 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(2)-- 神经网络基础之逻辑回归
本笔记参考了黄海广博士和红色石头的笔记。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要对深度学习(Deep Learning)的概念做了简要的概述。我们先从房价预测的例子出发,建立了标准的神经网络(Neura...原创 2019-05-05 21:54:56 · 1005 阅读 · 0 评论 -
TensorFlow学习--Saver
转载地址:http://blog.youkuaiyun.com/u011500062/article/details/51728830Saver的用法1. Saver的背景介绍 我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。Tensorflow针对这一需求提供了Saver类。Saver类提供了向check转载 2017-08-04 15:25:43 · 378 阅读 · 0 评论 -
TensorFlow学习--tf.session.run()
函数参数run( fetches, feed_dict=None, options=None, run_metadata=None)tf.Session.run() 执行 fetches中的操作,计算 fetches 中的张量值。这个函数执行一步 TensorFlow 运算,通过运行必要的图块来执行每一个操作,并且计算每一个 fetches 中的张量的值,用相原创 2017-07-27 11:48:27 · 36271 阅读 · 3 评论 -
Win7下安装tensorflow
安装前提:已经安装了Anaconda3(我安装的是Anaconda3-4.2.0-Windows-x86_64.exe)。TensorFlow目前在Windows下只支持Python 3.5版本。1、进入电脑的开始菜单中找到Anaconda3(64-bit),然后点击下面的Anaconda Prompt。 我们要在Anaconda Prompt中利用Anaconda创建原创 2017-06-29 13:11:25 · 485 阅读 · 0 评论 -
TensorFlow学习--卷积神经网络CNN
转载地址:深度学习之卷积神经网络CNN及tensorflow代码实现示例http://blog.youkuaiyun.com/cxmscb/article/details/71023576一、CNN的引入在人工的全连接神经网络中,每相邻两层之间的每个神经元之间都是有边相连的。当输入层的特征维度变得很高时,这时全连接网络需要训练的参数就会增大很多,计算速度就会变得很慢,例如一转载 2017-06-30 11:21:55 · 5105 阅读 · 0 评论 -
TensorFlow学习---tf生成数据的方法
正常情况下,使用tf.initialize_all_variables()初始化变量,在完全构建好模型并加载之后才运行这个操作。生成数据的主要方法如下1)如果需要利用已经初始化的参数给其他变量赋值TF的变量有个initialized_value()属性,就是初始化的值,使用方法如下: 1 2 3 4 5 6#转载 2017-06-21 16:08:06 · 1277 阅读 · 0 评论 -
TensorFlow学习---基础概念和程序的形式
转载博客:http://blog.youkuaiyun.com/phdat101/article/details/523506111.概念graph:图,表示具体的计算任务session:会话,图需要在会话中执行,一个会话可以包含很多图tensor:张量,在此表示数据,类型是numpy::ndarrayvariable:就是本意变量,图的重要组成转载 2017-06-21 16:14:16 · 378 阅读 · 0 评论 -
TensorFlow学习---tf.nn.conv2d实现卷积操作
tf.nn.conv2d是TensorFlow里面实现卷积的函数。tf.nn.conv2d(input, filter, strides,padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch,in_h原创 2017-06-21 15:09:15 · 3511 阅读 · 0 评论 -
TensorFlow学习---tf.nn.max_pool实现池化操作
max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似有些地方可以从卷积去参考【TensorFlow】tf.nn.conv2d是怎样实现卷积的? tf.nn.max_pool(value, ksize, strides, padding, name=None)参数是四个,和卷积很类似:第一个参数value:需要池化的输入,一般池化层接在转载 2017-06-21 15:33:23 · 889 阅读 · 0 评论 -
TensorFlow学习---tf.nn.softmax_cross_entropy_with_logits的用法
转载博客:http://blog.youkuaiyun.com/mao_xiao_feng/article/details/53382790在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cross转载 2017-06-21 16:44:50 · 500 阅读 · 0 评论 -
TensorFlow学习---实现mnist手写数字识别
卷积神经网络CNN的理论部分直接看帖子:TensorFlow学习--卷积神经网络CNN卷积神经网络CNN的结构一般包含这几个层:输入层:用于数据的输入 卷积层:使用卷积核进行特征提取和特征映射 激活层:由于卷积也是一种线性运算,因此需要增加非线性映射。激活函数,并不是去激活什么,而是指如何把“激活的神经元的特征”通过函数把特征保留并映射出来(保留特征,去除一些数据中是的冗余),这是神经原创 2017-07-03 14:59:51 · 3383 阅读 · 2 评论 -
TensorFlow学习---tf.nn.dropout防止过拟合
一、 Dropout原理简述:tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。示意图如下原创 2017-06-23 16:15:17 · 65100 阅读 · 13 评论 -
吴恩达《神经网络与深度学习》课程笔记(1)-- 深度学习概述
本课程笔记参考了黄海广博士和红色石头的笔记,加入了自己的理解。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson11. What is a neural network?简单来说,深度学习(Deep Learning)就是更复杂的...原创 2019-05-05 21:34:47 · 718 阅读 · 0 评论