
Tensorflow
WolfOnTheWay
我们的目标就是做大,做强,定创辉煌!
展开
-
Tensorflow:单层神经网络实现回归问题
单层神经网络搭建神经网络的一般步骤自定义损失函数import tensorflow as tffrom numpy.random import RandomStateimport os# 除错误外 其他信息不显示os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'# 一次喂给神经网络多少数据batch_size = 8# 设定两个输入节...原创 2019-04-26 13:05:15 · 845 阅读 · 0 评论 -
Tensorflow常用函数:tf.constant() 、指数衰退、正则化
1.tf.constant创建一个常张量,传入list或者数值来填充# Constant 1-D Tensor populated with value list. tensor = tf.constant([1, 2, 3, 4, 5, 6, 7]) => [1 2 3 4 5 6 7] # Constant 2-D tensor populated with sc...原创 2019-04-27 16:05:15 · 1588 阅读 · 2 评论 -
Tensorflow:在不同的计算图上定义和使用变量
# 相当于实例化一个类g1g1 = tf.Graph()# 将计算图g1设置为默认图 with g1.as_default(): # 在计算图g1中定义变量“v”,并设置初始值为0。 # 进行初始化 "v"表示名称 initializer表示初始化,可以使用各种初始化的方法 # tf.zeros_initializer(shape=[1]) 初始化为0 ...原创 2019-04-27 16:33:24 · 965 阅读 · 0 评论 -
Tensorflow———模型持久化(保存与使用)
TensorFlowt提供了一个非常简单的接口来保存和还原一个神经网络的模型,即tf.train.Saverl类。具体实例:import tensorflow as tffrom numpy.random import RandomStateimport os# 设置标志位 来操作是训练还是进行模型的使用isTrain = False# 除错误外 其他信息不显示...原创 2019-05-27 17:40:04 · 322 阅读 · 0 评论 -
TensorFlow———输入层到卷积层的尺寸的变化
输入层到卷积层在过滤器步长不为1的情况下,会引起尺寸的缩小。这时候有些人就很难对卷积层的尺寸进行判断。假设:OUTlongth代表输出层的长度。OUTwidth代表输出层的宽度。INlength代表输入层的长度。INwidth代表输入层的宽度。FILTERlength和FILTERwidth分别代表过滤器的长和宽。STRIDElength和STRIDEwidth分别代表...原创 2019-07-04 10:32:59 · 915 阅读 · 0 评论 -
神经网络种什么是梯度消失?
梯度消失:神经网络主要的训练方法是BP算法,BP算法的基础是导数的链式法则,也就是多个导数的乘积。而sigmoid(激活函数)的导数最大为0.25,且大部分数值都被推向两侧饱和区域,这就导致大部分数值经过sigmoid激活函数之后,其导数都非常小,多个小于等于0.25的数值相乘,其运算结果很小。随着神经网络层数的加深,梯度后向传播到浅层网络时,基本无法引起参数的扰动,也就是没有将loss的信息...原创 2019-09-06 11:26:30 · 1030 阅读 · 0 评论