摘要:线性模型不仅仅只有线性回归这样直观的模型,也有广义上的线性模型,它是以线性回归的结果作为模型的自变量。这样的模型比较典型的代表就是Logistic回归和Softmax回归,两者都应用于分类(有监督学习)。其中Logistic回归是用来二分类,Softmax用来做多分类。
目录
在线性模型(1)中主要讨论了线性回归这种直观的线性模型,并且在某些时候,我们会从主观上感觉线性回归也可以用作分类,比如样本均匀的分布在线性模型的两侧,但事实并非如此。如图1所示,两个图中紫色线表示线性回归的结果,绿色表示Logistic回归的结果。很容易看出来,当同一类样本比较聚集的时候,线性回归也可以做到分类的效果,但是也可以看到图1右图,当部分样本分布在图像右下角时候,线性回归必然会受到这些样本的影响,从而向一侧偏离,不过Logistic回归的结果仍旧稳定。

Logistic回归
sigmod函数
sigmod函数的图像(图2)像个S,所以就称呼为sigmod函数,或者也直接叫Logistic函数。

首先不加证明的给出一个函数:
令,这是线性回归的基本形式,这样带入上式,就得到了Logistic函数:
补充一点这个函数的数学特性,这个函数有个很好的性质,尝试对其求导:
Logistic回归参数估计
那么如何估算Logistic回归的参数呢?似然对数+梯度下降,和线性回归的方式相似的做法,这里就看出来,其实对于大多数机器学习的模型来说,似然对数和梯度下降是常用的估算参数的方式。
既然是一个二分类问题,那么我们假设样本服从二项分布,样本类别标记用{0,1}表示:
|