NTU-Coursera机器学习:过拟合(Overfitting)与正规化(Regularization)

本文探讨了过拟合的概念,指出Ein小而Eout大的学习现象,并分析了过拟合的原因,包括复杂模型、数据噪音和有限训练数据。解决方案包括使用简单模型、数据清洗和增加数据规模。正规化作为限制模型复杂度的有效手段,通过weight decay regularization降低模型复杂度,减少过拟合。适当的正规化项设计原则应考虑目标依赖性、合理性及友好性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

过拟合overfitting

过拟合(overfitting)定义

什么是过拟合(overfitting),即:简单的说就是这样一种学习现象:Ein 很小,Eout 却很大。而Ein 和 Eout 都很大的情况叫做 underfitting。这是机器学习中两种常见的问题。


上图中,竖直的虚线左侧是"underfitting", 左侧是"overfitting”。发生overfitting 的主要原因是:(1)使用过于复杂的模型(dvc 很大);(2)数据噪音;(3)有限的训练数据。

噪音与数据规模

我们可以理解地简单些:有噪音时,更复杂的模型会尽量去覆盖噪音点,即对数据过拟合!这样,即使训练误差Ein 很小(接近于零),由于没有描绘真实的数

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值