logistic回归(一):logistic原理及推导

博客主要介绍了广义线性回归,着重阐述Logistic回归,包括其适用场景、假设函数转换、逻辑函数、似然函数、代价函数及参数求解方法,还分析了极大似然估计和损失函数等。此外,也提及多分类样本的Softmax回归,包括概率计算和权重参数求取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、广义线性回归
1、什么是广义线性回归
在这里插入图片描述
在这里插入图片描述
二、logistic回归
当我们的因变量使分类变量的时候,我们可以采取logistic回归,在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;区别一个肿瘤是恶性的还是良性的。
我们从二元的分类问题开始讨论。
我们将因变量(dependant variable)可能属于的两个类分别称为负向类(negative class)和 正向类(positive class),则因变量 y属于{0,1},其中 0 表示负向类,1 表示正向类。
我们的假设函数hθ(x)=θTXh_\theta(x)=\theta^TXhθ(x)=θTX是一个输出值位于(−∞,+∞)(-\infty,+\infty),+的值,但是我们希望将其转化为分类的值,这个就要转换为概率,如果输出的值概率等于1的概率大于0.5则是1,如果输出概率小于0.5则是0。
我们将这个值转换成为概率的函数叫做逻辑函数g,其中
g(z)=(1)1+e−z g(z)={(1)\over 1+e^{-z}} g(z)=1+ez(1)
在这里插入图片描述
在这里插入图片描述
根据上面绘制出的 S 形函数图像,我们知道当
z=0 时 g(z)=0.5
z>0 时 g(z)>0.5
z<0 时 g(z)<0.5
z=θTXz=θ^TXz=θTX,即:
θTXθ^TXθTX 大于等于 0 时,预测 y=1
θTXθ^TXθTX 小于 0 时,预测 y=0

g(z)求导为
在这里插入图片描述
所以g(z)‘=g(z)∗(1−g(z))g(z)`=g(z)*(1-g(z))g(z)=g(z)1g(z)
2、Logistic回归及似然函数
对于给定的数据集T={(x1,y1),(x2,y2),(x3,y3)…(xn,yn)},那么通过线性回归wTx+bw^{T}x+bwTx+b得到的值是位于负无穷到正无穷之间的,而我们需要计算概率,所以利用g(z)函数将其转化为(0,1)之间的数。下面计算y=1和y=0时的值
1、李航书上的推导:
在这里插入图片描述
设y为样本是正例时得到的概率,则g(y(1−y))=wTx+bg(\frac y {(1-y)})=w^Tx+bg((1y)y)=wTx+b,所以logit回归也相当于广义线性回归。设p(y=1∣x)=exp(wTx+B)1+exp(wTx+B)p(y=1|x)=\frac {exp(w^Tx+B)}{1+exp(w^Tx+B)}p(y=1x)=1+exp(wTx+B)exp(wTx+B)
在这里插入图片描述
对上述式子中θ求导,结果和下面是一致的
在这里插入图片描述
2、利用梯度下降求得偏导
在这里插入图片描述
其中p(y|x;θ)为单个样本的概率,那么下面是求得所有样本的概率的似然函数,这时我们要求这个极大似然函数的最大值,则需要对这个对数似然函数求导
接着再使用梯度下降的方法,求得其最大值
在这里插入图片描述
2、代价函数与交叉熵代价函数
在这里插入图片描述
在这里插入图片描述
可以看出logistic的损失函数,是极大似然估计的值。同样我们对logistic模型的参数θ进行求解时也可以用梯度下降的方法。
3、θ的求解,同样这里我们可以采用梯度下降的方法去进行迭代,下降的方式便是我们上面求出来的求导公式。
在这里插入图片描述
当然这里也可以采用矩阵的方式去写:
在这里插入图片描述
下面是机器学习的代码分析:
在这里插入图片描述
极大似然估计和logistic的损失函数
logistic的系数解释。
log(p(Y=1∣X)1−P(Y=1∣X))=θx log({p(Y=1|X)\over 1-P(Y=1|X)})=θx log(1P(Y=1X)p(Y=1X))=θx
所以logistic得线性函数其实求得是一个优势比的变化,这个优势比与eθie^{θ_i}eθi成正比。

二、多分类样本softmax回归
在这里插入图片描述
例如:对于一个新的样本,softmax回归模型对于每一类都先计算出一个分数,然后通过softmax函数得出一个概率值,根据最终的概率值来确定属于哪一类。
logistic判断的是类别1的概率是多少,但是softMax得出的是第k个类别的概率是多少。即y会得出很多概率值(一个概率向量)。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
和logistic回归一样,我们需要对所属类别有一个较高的概率输出,而对于其他类别的概率输出则较低,同样,我们通过损失函数来进行求取权重参数。如下:
在这里插入图片描述
上式中i表示第i个样本,而k表示第k个类别,ykiy_k^{i}yki代表k个类别的表示(比如y=0,1,2,3,而pkip_{k}^{i}pki代表第i个样本的是k个类别的概率。

求解还是利用梯度下降,这里不用了解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值