神经网络与深度学习 笔记5 过度拟合和正则化

本文详细探讨了深度学习中过度拟合的问题及其解决方案,包括早期停止、L1和L2正则化、Dropout技术以及通过人为扩展训练数据来改善模型泛化能力。正则化有助于找到较小权重,提高模型的泛化能力,而Dropout通过随机删除神经元模拟多种网络,减少过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.过拟合

模型复杂而训练样本不足,过度训练,会导致过度拟合。


训练数据集上的代价表现是越来越好的,测试集上的代价越来越差。训练数据上的分类准确率一直在提升接近 100%,而测试准确率仅仅能够达到 82.27%。


网络几乎是在单纯记忆训练集合,而没有对数字本质进行理解能够泛化到测试数据集上。


避免过拟合的方法:early stopping,L1、L2正则化,dropout, 人为扩展训练数据


2. early stopping

数据集分为三部分:training_data、validation_data,testing_data。如果设置超参数是基于 test_data 的话, 会得到过度拟合于 test_data 的超参数。借助 validation_data 来克服这个问题,在训练过程中,用validation_data来确定一些超参数(如迭代期epoch, 学习速率η)。然后一旦获得了想要的超参数,最终我们就使用 test_data 进行准确率测量。

在每个迭代期的最后都计算在validation_data上的分类准确率。一旦分类准确率已经饱和,就停止训练。这个策略被称为提前停止(early stopping)。


3. L2正则化(权重衰减)

正则化的交叉熵:


正则化的二次代价函数:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值