吴恩达机器学习笔记(七):代价函数

本文介绍了吴恩达机器学习课程中关于正则化线性回归的内容,包括代价函数的正则化部分,如何通过梯度下降解决过拟合问题,以及在处理最小二乘法时的矩阵不可逆问题。还简要提及了正则化在逻辑回归中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言:正则化其实是基于代价函数来说的一个概念,主要用于处理过拟合等问题。

吴恩达机器学习笔记(七):代价函数

Regularized linear regression

如前言所述,正则化为了让模型更好地切合数据,同时降低过拟合的可能。
具体形式如下,在常规的J(θ)代价函数的后面增加一部分: λ倍∑j到n的θj^2,此举会用来限制参数的大小,,因为在梯度更新时,有一个2λθ的项。而往往我们将 λ设置的较大,所以θ必须足够小才能完成梯度的更新,这样做便能防止过拟合问阿提。
请添加图片描述

正则化线性回归的Gradient decent

原来的梯度下降:在这里插入图片描述
正则化后:
在后方插入的λ/(2m) * θ^2 求导后变成了下图中的λ/m * θ
在这里插入图片描述
再进一步化简:
1 - α*λ/m<1
但是这个值几乎是靠近与1的,可以看做是0.99.
所以需要一个非常小的θ,这样做是因为在训练的时候,有时候数据特别少特征量却又很多,训练时某些参数受个别样本影响变得特变大,对模型整体影响也就放大,但是又没有足够的多的数据去优化它,所以就出现了过拟合,我们把所有的参数θ的值都放小,是他们尽可能平均亦或者说势均力敌地去决定模型,从而避免过拟合情况。
在这里插入图片描述

请添加图片描述

解决最小二乘法直接求θ时可能矩阵不可逆的情况

样本数量m小于特征量n,此时矩阵X^T*X不可逆
但是如果加上一个λ倍的对角矩阵,变转成了一个可逆矩阵(数学上可证明,我还没去推导,所以这里不展开细说)。
请添加图片描述

正则化处理Logistic Regression

同样的,在代价函数后面加上一部分对θ做限制的求和多项式。请添加图片描述

这里看上去和LInear regression十分相似,但是要记住,因为两者的hypothesis function都是不同的,所以其间不存在什么直接的联系请添加图片描述
这里提供一个效率更佳的优化方法;
请添加图片描述
这是直接call Octave里面的内置函数,直接返回相应的gradient和J(θ)。
具体还是要到Octave里去实践,这里不做过多赘述。

2022.3.6

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值