
TensorFlow
BBJG_001
手与大脑的距离决定了理想与现实的相似度
展开
-
Pytorch和Tensorflow中的交叉熵损失函数
原文地址Pytorch系列目录导入支持import tensorflow as tfimport torchimport numpy as np生成测试数据onehot_labels = [[0,0,1,0,0], [0,0,0,1,0], [0,1,0,0,0], ...原创 2020-03-30 15:32:44 · 3527 阅读 · 0 评论 -
TensorFlow:一个简单的神经网络
原文地址分类目录——TensorFlow我的一点理解在某种意义上讲,深度学习=神经网络是一个多层处理的过程x0 -> y_1=f(Wx0+b) -> y_2=f(Wx1+b) -> y_3=f(Wx2+b) -> . . . -> y=f(Wx(n-1)+b)其中每一层 先进行一轮“直”(线性的)的操作:y。=Wx+b,就是个加权,y。中的每一个数据都是...原创 2020-02-11 09:34:06 · 1835 阅读 · 0 评论 -
TensorFlow中的激活函数
原文地址分类目录——TensorFlow我的一点理解在某种意义上讲,深度学习=神经网络是一个多层处理的过程x0 -> y_1=f(Wx0) -> y_2=f(Wx1) -> y_3=f(Wx2) -> . . . -> y=f(Wx(n-1))其中每一层 先进行一轮“直”(线性的)的操作:y。=Wx,就是个加权,y。中的每一个数据都是对x中所有数据的一个...原创 2020-02-10 10:01:08 · 2021 阅读 · 0 评论 -
tf.placeholder()
原文地址分类目录——TensorFlow之前说过TensorFlow这个架构会先定义所有运算过程(option),最后通过run(option)来动态执行,这个形式有些像普通函数与main的概念,普通函数只是静态的定义在那,只有当main被调用时,写在main中的函数才回被真正的动态调用。本文要说的 tf.placeholder() 就有些像普通函数中的形式参数,在定义函数时的参数只是形式上...原创 2020-02-09 09:21:13 · 2187 阅读 · 0 评论 -
深度学习:激活函数
原文地址激活函数是推动深度学习发展的一个关键节点。深度学习框架,尤其是基于人工神经网络的框架可以追溯到1980年福岛邦彦提出的新认知机[11],而人工神经网络的历史更为久远。1989年,扬·勒丘恩(Yann LeCun)等人开始将1974年提出的标准反向传播算法[12]应用于深度神经网络,这一网络被用于手写邮政编码识别。尽管算法可以成功执行,但计算代价非常巨大,神经网路的训练时间达到了3天,...原创 2020-02-08 09:51:07 · 2167 阅读 · 0 评论 -
win10安装GPU版TensorFlow
学习中要用到TensorFlow了,花了一些功夫装上了,期间在网上获得了很多同仁的教程的帮助,本着本着共同学习、方便他人的想法,我把我整理的安装过程也写在这里,希望能对读者有些许助益。系统:win10TensorFlow版本:1.14.0CUDA版本:cuda_10.0.130_411.31_win10cudnn版本:cudnn-10.0-windows10-x64-v7.6.1.3...原创 2019-07-08 16:29:01 · 3890 阅读 · 0 评论 -
tf.Session()会话的理解
原文地址TensorFlow的所有运行操作,都必须在打开的Seesion下执行,Session就像一个操作台,所有的操作都在这个操作台上运行。我薛微总结了一下TensorFlow的机制,大致是这样的做一堆变量声明做一堆操作声明(通过中间操作名来传递操作,假设为有一个operate())做一个变量初始化的操作声明(init() # 在本例中没有体现这一步)创建sess = Sessio...原创 2020-02-01 10:03:02 · 4886 阅读 · 3 评论 -
tf.Variable()变量
原文地址我薛微总结了一下TensorFlow的机制,大致是这样的做一堆变量声明做一堆操作声明(通过中间操作名来传递操作,假设为有一个operate())做一个变量初始化的操作声明(init())创建sess = Session()在Session下执行初始化(sess.init())在Session下执行操作(sess.operate(),这时候就会一步一步去追溯你声明好的操作流...原创 2020-02-02 10:27:43 · 1939 阅读 · 0 评论 -
TensorFlow:Graph计算图的概念
原文地址我的一丢丢看法,个人以为计算图是TensorFlow架构中最大的逻辑空间,用来隔离不同项目中定义的变量和运算。来段程序理解一下import tensorflow as tf# Graph()框出一个范围,用来隔离张量和计算,还可以通过tf.Graph.device指定设备,与其他graph下的变量隔离# collection属于计算图下的概念,相当于一个公共空间,本计算图下的中间...原创 2020-01-30 13:17:52 · 2456 阅读 · 0 评论