一. 线性回归 VS 逻辑回归
线性回归,一般处理因变量是数值型区间变量(连续),用来拟合因变量和自变量之间的线性关系,但是因变量和自变量都是连续区间,常见的线性模型:
而在分析实际问题时,所研究问题变量不仅有区间变量(连续变量),也有属性变量(分类变量 or 顺序变量),如二项分布问题,通过分析患者的年龄、性别、体质指数、平均血压、疾病指数等指标,判断一个人是否有糖尿病,Y = 0表未患病,Y = 1表患病,这里的响应变量(分类变量)是一个两点(0-1)分布变量,它不能用h函数处理因变量是连续变量的问题,若因变量是定性(分类)问题,线性回归model就不能解决这个问题了,需要采用逻辑回归来解决定性(分类)问题。
逻辑回归,用来处理因变量为分类变量的回归问题,因为与回归问题非常相似,仅仅是输出不一样,所以称为逻辑回归(逻辑回归用了和回归类似的方法来解决了分类问题),常见的是二分类问题,它也能处理多分类问题,逻辑回归实质是一种分类问题。
In short: 输出变量类型是连续时,为线性回归(目标函数 均方误差和),输出变量类型是离散时,为逻辑回归(分类),目标函数(通常有正则项)
二. 逻辑回归 逻辑回归是一个非线性二分类(多分类)问题
对于一个逻辑回归问题(二分类问题),针对一个具体样本,我们不仅仅想知道这个样本属于哪一类,同时还想知道属于概率的概率是多大。对于线性回归和非线性回归的分类问题都不能回答这个问题,因为线性回归和非线性回归的为题,都是假设其分类函数如下: Y = W * X + b,因为Y的取值范