逻辑回归(Logistic)模型

1 概述

Logistic回归(逻辑回归)是基础的分类模型,将输出限定在0-1之间,表示分类的概率。在分类时,可设定阈值为0.5,概率超过0.5表示正例,小于0.5表示负例。应用场景包括医学检测(是否患病,肿瘤良性恶性)、金融(信用卡违约)、市场营销(客户是否流失)等。

2 Logistic分布

Logistic分布是一种连续型概率分布,假设随机变量X服从Logistic分布,则X的分布函数为

F(x)= \frac{1}{1 + e^{-(x - \mu)/\gamma}}

概率密度为

f(x)=\frac{e^{-(x - \mu)/\gamma}}{\gamma(1 + e^{-(x - \mu)/\gamma})^2}

\mu=0,\gamma=1时,称函数F(x)= \frac{1}{1 + e^{-x}}为标准Logistic函数,也称为Sigmoid函数。

3 Logistic回归模型

Logistic回归虽然名字叫“回归”,但实际是分类算法,将线性回归(z=b0+b1x1+b2x2+...)的输出值转换为0到1之间的概率值,而转换的方法就是上文提到的Sigmoid函数,即y=Sigmoid(z)。

因此Logistic回归表示为

y=\frac{1}{1 + e^{-(\beta_0+\beta_1x_1+\cdots+\beta_nx_n)}}=\frac{1}{1 + e^{-Wx}}

3.1 Odds几率

注意到y是概率,记为p,那么称odds几率为事件发生与不发生概率的比值,即

odds=\frac{p}{1-p}=e^{Wx}

3.2 Logit对数几率

称logit为对数几率,表示为log(odds),即线性回归的部分。

logit=log(odds)=Wx

因此Logistic回归模型也称为对数几率模型,也就是满足对数几率是线性回归的模型。

log{\frac{y}{1-y}}=Wx

化简后,即可得到Logistic回归模型。

4 极大似然函数与损失函数

可以由似然函数推导损失函数,对数似然函数等于负的损失函数。

对于给定的训练集(x1,y1),(x2,y2),(x3,y3)...,其中y是0或1,

记π(x)=P(Y=1|X),则1-π(x)=P(Y=0|X),其中π(x)是要学习的目标参数

似然函数为:\prod_i^N{[\pi(x_i)]^{y_i}*[1-\pi(x_i)]^{1-y_i}}

似然函数是指给定参数情况下,出现这个样本的概率。可以发现当y=1时,上式为π(x);当y=0时,上式为1-π(x),符合似然函数的概念。

对数似然函数为

L(w)=\sum_{i = 1}^{N}[y_{i}\log\pi(x_{i})+(1 - y_{i})\log(1 - \pi(x_{i}))]\\ =\sum_{i = 1}^{N}\left[y_{i}\log\left(\frac{\pi(x_{i})}{1 - \pi(x_{i})}\right)+\log(1 - \pi(x_{i}))\right]\\ =\sum_{i = 1}^{N}\left[y_{i}(w\cdot x_{i})-\log(1 + \exp(w\cdot x_{i}))\right]

损失函数即为上式的相反数,通过梯度下降等方法求得参数。

在计算梯度时,y对x的梯度很容易求得,这是因为Sigmoid函数的特性是导数等于y(1-y)。

此外Sigmoid函数也常用于早期的神经网络的激活函数,在计算梯度时也可利用此性质。

5 优缺点

优点是模型简单、计算效率高、可解释性强。

缺点是线性假设过强,可能导致欠拟合。

6 参考资料

https://zhuanlan.zhihu.com/p/586453822

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值