MNIST 数据集输出手写数字识别准确率——实践
总体结构分析
实现手写体 mnist 数据集的识别任务,共分为三个模块文件,分别是:
- 描述网络结构的前向传播过程文件(mnist_forward.py)
- 描述网络参数优化方法的反向传播 过 程 文 件 ( mnist_backward.py )
- 验证模型准确率的测试过程文件(mnist_test.py)
前向传播过程文件(mnist_forward.py)
import tensorflow as tf
INPUT_NODE = 784 #网络输入节点为784个(代表每张输入图片的像素个数)
LAYER1_NODE = 500 #隐藏层节点500个
OUTPUT_NODE = 10 #输出节点10个(表示输出为数字0-9的十个分类)
#输入层到隐藏层的参数w1形状为[784, 500],由隐藏层到输出层的参数w2形状为[500, 10]
def get_weight(shape, regularizer):
w = tf.Variable(tf.truncated_normal(shape, stddev = 0.1)) #生成去掉超过0.1个标准差的正态分布的随机数
if regularizer != None:tf.add_to_collection('losses', tf.contrib.layers.l2_regularizer(regularizer)(w)) #参数使用l2正则化,将每个参数的正则化损失加到总损失中
return w
def get_bias(shape):
b = tf.Variable(tf.zeros(shape)) #将偏置b的值初始化全为0
return b
def forward(x, regularizer):
w1 = get_weight([INPUT_NODE, LAYER1_NODE], regularizer)
b1 = get_bias([LAYER1_NODE])
y1 = tf.nn.relu(tf.matmul(x, w1) + b1) #前向传播结构第一层(输入x与参数w1矩阵相乘加上偏置b1再经过relu函数,得到隐藏层输出y1)
w2 = get_weight([LAYER1_NODE, OUTPUT_NODE], regularizer)
b2 = get_bias([OUTPUT_NODE])
y = tf.matmul