Mnist数据集单隐层BP神经网络参数调优

本文详述了在MNIST数据集上,使用单隐层BP神经网络进行参数调优的过程,包括参数初始化、激活函数、学习率、正则参数、隐层神经元数量和min_batch的调整。经过优化,模型在测试集上的正确率达到了98%。最终确定的最佳参数组合为:随机初始化、激活函数选择SELU、学习率为0.4并带有衰减、正则参数0.0004、1200个隐藏层神经元及min_batch为550。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本次对mnist数据集采用单隐层的BP神经网络,在对参数初始化,激活函数,学习率,正则系数选择,隐层神经元数量选择,随机采样样本数量进行调优后,模型在测试集上的正确率可以达到98%。

1、 参数初始化方式

首先调优w和b的初始化,对比了0矩阵赋值tf.zero,均值和方差为0的正太分布赋值tf.random_normal,发现随机赋值可以收敛速度更快更好,故而选择了随机赋值。

2、 激活函数

在选择0.3作为学习率时,sigmoid最慢,50k时仅0.97,到200k步时准确率才达到0.9722;而relu较快但正确率在50k时时0.978左右,selu在50k就可以达到0.9804

 

三种常用激活函数的特点

使用不同模型在minist测试集上,学习率取0.3时,正确率随步数变化

步数(k步)

sigmoid

relu

selu

5

0.9426

0.9491

0.954

10

0.9641

0.9687

0.9715

15

0.9668

0.9796

0.9748

20

0.9618

0.9827

0.971

25

0.9647

0.9833

0.977

30

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值