线性模型(02)广义线性模型--分类

本文介绍了线性模型中的广义线性模型,重点探讨了Logistic回归和Softmax回归在分类任务中的应用。Logistic回归通过sigmod函数实现二分类,而Softmax回归则用于多分类。文章详细阐述了Logistic回归的参数估计、对数线性模型和损失函数,以及与Softmax回归的关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要:线性模型不仅仅只有线性回归这样直观的模型,也有广义上的线性模型,它是以线性回归的结果作为模型的自变量。这样的模型比较典型的代表就是Logistic回归和Softmax回归,两者都应用于分类(有监督学习)。其中Logistic回归是用来二分类,Softmax用来做多分类。

目录

 Logistic回归

sigmod函数

Logistic回归参数估计

对数线性模型

几率

Logistic回归的损失函数

Softmax回归


在线性模型(1)中主要讨论了线性回归这种直观的线性模型,并且在某些时候,我们会从主观上感觉线性回归也可以用作分类,比如样本均匀的分布在线性模型的两侧,但事实并非如此。如图1所示,两个图中紫色线表示线性回归的结果,绿色表示Logistic回归的结果。很容易看出来,当同一类样本比较聚集的时候,线性回归也可以做到分类的效果,但是也可以看到图1右图,当部分样本分布在图像右下角时候,线性回归必然会受到这些样本的影响,从而向一侧偏离,不过Logistic回归的结果仍旧稳定。

图1

 Logistic回归

sigmod函数

sigmod函数的图像(图2)像个S,所以就称呼为sigmod函数,或者也直接叫Logistic函数。

图2

 首先不加证明的给出一个函数:

g(z)=\frac{1}{1+e^{-z}}

z=\theta^Tx,这是线性回归的基本形式,这样带入上式,就得到了Logistic函数:

h_\theta(x)=g(\theta^Tx)=\frac{1}{1+e^{-\theta^Tx}}

补充一点这个函数的数学特性,这个函数有个很好的性质,尝试对其求导:

g^{'}(x)=(\frac{1}{1+e^{-x}})^{'}=\frac{e^{-x}}{(1+e^{-x})^2}

=\frac{1}{1+e^{-x}}\cdot\frac{e^{-x}}{1+e^{-x}}=\frac{1}{1+e^{-x}}\cdot(1-\frac{1}{1+e^{-x}})

=g(x)\cdot(1-g(x))

Logistic回归参数估计

h_\theta(x)=g(\theta^Tx)=\frac{1}{1+e^{-\theta^Tx}}

那么如何估算Logistic回归的参数\theta呢?似然对数+梯度下降,和线性回归的方式相似的做法,这里就看出来,其实对于大多数机器学习的模型来说,似然对数和梯度下降是常用的估算参数的方式。

既然是一个二分类问题,那么我们假设样本服从二项分布,样本类别标记用{0,1}表示:

         y
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值