学习神经网络过程中遇到的问题

本文探讨了在利用神经网络拟合函数时遇到的问题,如高均方误差。通过调整数据规模、使用L2正则化以及更改输入单位,显著改善了拟合效果。作者提出扩大数字范围可能提高精度,并猜测批量归一化(BN)层可能进一步优化结果,但尚未在分类问题上验证。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习神经网络过程中遇到的问题

利用神经网络拟合一个函数

γ按1.4算
γ按1.4算,那么自变量也就是输入只有M1和β,因变量只有一个θ,网络结构采用两层1024个单元,训练数据就按这个公式生成M1在1到10之间,β在0到二分之pi,舍去了θ为负数的例子。只画M1为3和5的情况就是:
在这里插入图片描述
原图:
在这里插入图片描述

遇到的问题

利用原始数据L2正则化系数为0.001的情况拟合的结果很不好:
在这里插入图片描述
均方误差在0.03左右。
原始数据去掉L2正则化的情况:
在这里插入图片描述
情况好些了,均方误差在0.0003左右。而且训练了很多轮。
但是直观的看结果并不是很好。
于是便采用了一种方法。
原始数据不论输入还是输出都变成原来的100倍作为训练数据,L2正则化系数为0.001的情况:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值