
TensorFlow
fighting_like_lara
这个作者很懒,什么都没留下…
展开
-
TensorFlow实现神经网络算法(四) CNN实现MNIST手写识别
两个5x5卷积层,一个全连接层,一个输出层。实验结果,精度可达到0.97直接上代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist=input_data.read_data_sets("MNIST_data/",one_hot=True)#定义输入和...原创 2020-03-22 14:07:58 · 297 阅读 · 0 评论 -
TensorFlow实现神经网络算法(三)全连接网络实现MNIST手写识别
1、模型结构:两个隐藏层,每层256个节点,隐藏层的激活函数为Relu,输出层的激活函数为softmax。批大小100,迭代次数7000磁,学习率0.012、总结一下实现神经网络的步骤(以这次实验代码为例):①定义模型结构参数,定义超参数:#定义参数learning_rate=0.01train_epochs=7000batch_size=100display_step=1...原创 2020-03-20 15:17:00 · 581 阅读 · 0 评论 -
TensorFlow实现神经网络算法(二) softmax逻辑回归MNIST手写识别
一、softmax逻辑回归介绍 softmax逻辑回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签y可以取两个以上的值。 Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字。 softmax的的激活函数在TensorFlow中调用方法为:pred=tf.nn.softmax...原创 2020-03-19 11:35:26 · 466 阅读 · 0 评论 -
TensorFlow实现神经网络算法(一) 线性回归
训练集是生成的随机数,x和y的对应关系是y=2x。先生成100个随机数x,然后再计算出y=2x,并在结果上加上一些噪声,测试线性回归模型能否拟合好出y=2x。1、代码如下:import tensorflow as tf #导入TensorFlow模块import numpy as npimport matplotlib.pyplot as plttrain_X=np.linspa...原创 2020-03-17 15:30:59 · 790 阅读 · 0 评论