神经网络小结

在训练神经网络的过程中,多数情况下,会遇到准确率不高的情况,不能一次获得最好的结果;
一般是两种情况会导致准确率不准。

1. 欠拟合

在这里插入图片描述
欠拟合一般表现为训练集的准确率不高,这种情况下,应该:

  • 适当的增加或减少隐层的层数或者神经元的个数
  • 将原来使用的均方误差函数改为交叉熵作为损失函数
  • 将梯度下降法调参改为随机梯度下降(SGD),等等其他效果更好的梯度下降函数
  • 如果使用的是mini-batch梯度下降(batch_size表示将每组数据有多少个,epoch表示重复进行多少次)改变mini-batch_size的大小,过大容易造成数据随机性降低,陷入局部最小,过小GPU的并行性运算能力不能体现,速度较慢。
  • 前面提到sigmoidsigmoidsigmoid激活函数可能导致梯度消失,可以sigmoidsigmoidsigmoid改成使用ReLU等激活函数,或者使用Maxout方法来自学习激活函数。
  • 梯度下降时学习率(步长η\etaη)的改变可以使用Adam,Adgrad\bm {Adam,Adgrad}Adam,Adgrad等进行变化

2. 过拟合

在这里插入图片描述
过拟合一般表现为在训练集上的训练结果很好,在测试集上很差,此时应该考虑:

  • 使用L1或L2范数进行正则化,平衡模型复杂度与误差。
  • 使用Dropout来训练神经网络
  • 使用更多的数据重新训练
  • 在训练集中分出验证集,在训练过程中进行交叉验证,找到测试集和训练集上使得准确率平衡的那一点。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值