回归

本文深入讲解了回归与分类的基本概念及区别,并详细介绍了线性回归、逻辑回归等常见回归方法,包括模型假设、参数估计、正则化技术等内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

回归

首先理解回归与分类的区别:回归的y值是针对连续值的,而分类中的y值则为离散值。
下面介绍几种重要的回归

线性回归

通常回归可以写成这样的形式(两个变量):hθ(x)=θ0+θ1x1+θ2x2hθ(x)=θ0+θ1x1+θ2x2
而对于多变量的情况,则可以写成向量形式:hθ(x)=i=0mθixi=θTxhθ(x)=∑i=0mθixi=θTx
对于回归,我们最常用的方法是最小二乘,下面通过极大似然估计来解释最小二乘。
对于回归函数:y(i)=θTx(i)+ε(i)y(i)=θTx(i)+ε(i)
我们假设误差ε(i)(1im)ε(i)(1≤i≤m)是独立同分布的,且服从均值为0,方差为σ2σ2的高斯分布。
所以有:p(ε(i))=12πσexp((ε(i))22σ2)p(ε(i))=12πσexp⁡(−(ε(i))22σ2)
p(y(i)x(i);θ)=12πσexp((y(i)θTx(i))22σ2)p(y(i)|x(i);θ)=12πσexp⁡(−(y(i)−θTx(i))22σ2)
L(θ)=i=1mp(y(i)x(i);θ)L(θ)=∏i=1mp(y(i)|x(i);θ),即:L(θ)=i=1m12πσexp((y(i)θTx(i))22σ2)L(θ)=∏i=1m12πσexp⁡(−(y(i)−θTx(i))22σ2)
对数似然函数为:
对数似然函数
目标函数为:J(θ)=12i=1m(y(i)θTx(i))2J(θ)=12∑i=1m(y(i)−θTx(i))2
下面求解θθ:
目标函数:J(θ)=12i=1m(y(i)θTx(i))2=12(Xθy)T(Xθy)J(θ)=12∑i=1m(y(i)−θTx(i))2=12(Xθ−y)T(Xθ−y)
其中M个N维样本组成矩阵X:
–X的每一行对应一个样本,一共有M个样本
–X的每一列对应一个特征,一共有N个特征,还有一维常数项,全为1.
计算梯度:
梯度
参数的解析式:θ=(XTX)1XTyθ=(XTX)−1XTy
XTXXTX不可逆或者为了防止过拟合,需要增加λλ扰动:θ=(XTX+λI)1XTyθ=(XTX+λI)−1XTy
说明:XTXXTX是半正定的,则对于XTX+λIXTX+λI一定是正定的,从而XTX+λIXTX+λI可逆,则参数一定有解。
线性回归的正则项(防止过拟合):
目标函数为:J(θ)=12i=1m(y(i)θTx(i))2J(θ)=12∑i=1m(y(i)−θTx(i))2
L1-正则项:J(θ)=12i=1m(y(i)θTx(i))2+λj=1n|θj|J(θ)=12∑i=1m(y(i)−θTx(i))2+λ∑j=1n|θj|
L2-正则项:J(θ)=12i=1m(y(i)θTx(i))2+λj=1nθ2jJ(θ)=12∑i=1m(y(i)−θTx(i))2+λ∑j=1nθj2
Elastic Net:这里写图片描述
说明:对于线性回归,L1正则化就相当于岭回归,L2正则化就相当于岭回归。

logistic回归

Logistic/Sigmoid函数
这里写图片描述
hθ(x)=g(θTx)=11+eθTxhθ(x)=g(θTx)=11+e−θTx
g(x)=(11+ex)=ex(1+ex)2g′(x)=(11+e−x)′=e−x(1+e−x)2,g(x)=11+exex1+ex=11+ex(111+ex)=g(x)(1g(x))g′(x)=11+e−x∙e−x1+e−x=11+e−x∙(1−11+e−x)=g(x)(1−g(x))
Logistic回归参数估计
假设:P(y=1|x;θ)=hθ(x)P(y=1|x;θ)=hθ(x);P(y=0|x;θ)=1hθ(x)P(y=0|x;θ)=1−hθ(x)
p(y|x;θ)=(hθ(x))y(1hθ(x))1yp(y|x;θ)=(hθ(x))y(1−hθ(x))1−y
似然函数:
这里写图片描述
对数似然:
这里写图片描述
对数线性模型
一个事件的几率odds,是指该事件发生的概率与不发生的概率的比值。
对数几率:logit函数
P(y=1|x;θ)=hθ(x)P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1hθ(x)P(y=0|x;θ)=1−hθ(x)
这里写图片描述
Logistic回归的损失函数yi{0,1}yi∈{0,1}
这里写图片描述
这里写图片描述
Logistic回归的损失函数yi{1,1}yi∈{−1,1}
这里写图片描述
这里写图片描述

广义线性模型GLM

y不再只是高斯分布,而是扩大为指数族中的任意分布;
变量xg(x)yx→g(x)→y,连接函数g单调可导。
如线性回归中g(z)=zg(z)=z;logistic回归中g(z)=11+ezg(z)=11+e−z

Softmax回归

K分类,第k类的参数为θ⃗ kθ→k,组成二维矩阵θk×nθk×n
概率:p(c=k|x;θ)=exp(θTkx)l=1Kexp(θTlx),k=1,2,Kp(c=k|x;θ)=exp⁡(θkTx)∑l=1Kexp⁡(θlTx),k=1,2⋯,K
似然函数:
这里写图片描述
对数似然:
这里写图片描述
随机梯度:J(θ)θk=(ykp(yk|x;θ))x∂J(θ)∂θk=(yk−p(yk|x;θ))x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

gxls2024

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值