人工智能基础_机器学习022_使用正则化_曼哈顿距离_欧氏距离_提高模型鲁棒性_过拟合_欠拟合_正则化提高模型泛化能力---人工智能工作笔记0062

本文探讨了过拟合和欠拟合的概念,强调了模型泛化能力和鲁棒性的重要性。通过曼哈顿距离和欧氏距离解释了正则化的原理,指出较小的模型参数有助于增强对数据扰动的抵抗力。此外,还介绍了L1和L2正则化,并讨论了在实际项目中如何选择归一化方法,特别是针对天池蒸汽量预测项目中y_train的归一化处理原因。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

然后我们再来看一下,过拟合和欠拟合,现在,实际上欠拟合,出现的情况已经不多了,欠拟合是

在训练集和测试集的准确率不高,学习不到位的情况.

然后现在一般碰到的是过拟合,可以看到第二个就是,完全就把红点蓝点分开了,这种情况是不好的,

因为分开是对训练数据进行分开的,如果来了测试数据他的效果就不好了,也就说,泛化能力不行.

然后最理想的是第三个图.

可以看到如果我们有一个2图中的绿点,这个点可以看到,如果按照预测数据来说,也就是正常情况来说,应该分到蓝点部分里,但是,如果过拟合了,就会被分到红点里了,过拟合就会缺乏泛化能力

也就是说,这个模型的鲁棒性不强,什么是鲁棒性?就是健壮性

然后我们再看上面两个公式,实际上来说,参数w,小的好,越小,那么容错性就越好,因为比如,如果一个测试集[32,12

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

添柴程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值