吴恩达机器学习第七章学习笔记

本文探讨了机器学习中常见的过拟合问题,包括其表现形式如高方差,以及解决方案如特征选择和正则化。详细介绍了正则化的应用,包括线性和逻辑回归中的梯度下降和正规化代价函数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

过度拟合问题(the problem of overfitting)

在这里插入图片描述
在这里插入图片描述
由上图知,第一个图拟合数据不是很好,这又被称为欠拟合(underfitting)或高偏差(high bias)。
第二个图不错。
第三张图虽然看着过了每个数据,但因为变量过多,该模型无法泛化(即将模型应用到新样本的能力),所以又被称为过度拟合或高方差(high variance)。
解决过度拟合的方法
一:尽可能减少所选择的特征量,但同时这也意味着我们可能丢失一部分信息,降低假设函数的精度。
二:正则化。

正规化代价函数

通过修改代价函数达到缩小参数的目的。公式如下:
在这里插入图片描述
λ\lambdaλ为正规化参数

正则化线性回归

梯度下降

在这里插入图片描述
由上图可知,我们先将θ0\theta_0θ0和其他θ\thetaθ分开,因为j是从1开始的,然后化简θj\theta_jθj的公式,得到上图的最后一个公式,这个公式和原公式的差别在于多了(1−αλm)(1-\alpha\frac{\lambda}{m})(1αmλ)这个括号内的式子,并且这个式子应该是小于1的,我们可以假设这个式子的值为0.99,因此修改后的就达到了缩小参数的目的。

标准化方程

公式如下:
在这里插入图片描述
暂时还没搞懂这一部分怎么缩小参数的(😓)

正则化逻辑回归

代价函数公式如下:
在这里插入图片描述
梯度下降公式如下:
在这里插入图片描述
虽然这个公式和线性回归的很像,但由于假设函数不同,梯度下降的实质还是不一样的。缩小参数的原理同上。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值