MNIST 数据集输出手写数字识别准确率——实践

总体结构分析

实现手写体 mnist 数据集的识别任务,共分为三个模块文件,分别是:

  • 描述网络结构的前向传播过程文件(mnist_forward.py)
  • 描述网络参数优化方法的反向传播 过 程 文 件 ( mnist_backward.py )
  • 验证模型准确率的测试过程文件(mnist_test.py)

前向传播过程文件(mnist_forward.py)

import tensorflow as tf

INPUT_NODE = 784   #网络输入节点为784个(代表每张输入图片的像素个数)
LAYER1_NODE = 500   #隐藏层节点500个
OUTPUT_NODE = 10   #输出节点10个(表示输出为数字0-9的十个分类)
#输入层到隐藏层的参数w1形状为[784, 500],由隐藏层到输出层的参数w2形状为[500, 10]


def get_weight(shape, regularizer):
	w = tf.Variable(tf.truncated_normal(shape, stddev = 0.1))   #生成去掉超过0.1个标准差的正态分布的随机数
	if regularizer != None:tf.add_to_collection('losses', tf.contrib.layers.l2_regularizer(regularizer)(w))   #参数使用l2正则化,将每个参数的正则化损失加到总损失中
	return w

def get_bias(shape):
	b = tf.Variable(tf.zeros(shape))   #将偏置b的值初始化全为0
	return b

def forward(x, regularizer):
	w1 = get_weight([INPUT_NODE, LAYER1_NODE], regularizer)
	b1 = get_bias([LAYER1_NODE])
	y1 = tf.nn.relu(tf.matmul(x, w1) + b1)   #前向传播结构第一层(输入x与参数w1矩阵相乘加上偏置b1再经过relu函数,得到隐藏层输出y1)
	w2 = get_weight([LAYER1_NODE, OUTPUT_NODE], regularizer)
	b2 = get_bias([OUTPUT_NODE])
	y = tf.matmul
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值