逻辑回归:分类问题的利器
在机器学习领域,分类问题极为常见,像垃圾邮件识别、疾病诊断预测、客户信用风险评估及图像内容分类等都离不开分类算法。而逻辑回归,虽名称含“回归”,实际是强大的分类算法,在众多场景表现出色。
一、逻辑回归的基本原理
它基于线性回归模型,借逻辑函数(sigmoid函数)将线性回归输出映射为0到1间的概率值实现分类。
(一)线性回归模型回顾
线性回归模型旨在找线性函数描述自变量X=(x1,x2,⋯ ,xn)X=(x_1,x_2,\cdots,x_n)X=(x1,x2,⋯,xn)与因变量yyy的关系,表达式为y=θ0+θ1x1+θ2x2+⋯+θnxn=∑i=0nθixiy = \theta_0 + \theta_1x_1 + \theta_2x_2 + \cdots + \theta_nx_n = \sum_{i=0}^{n}\theta_ix_iy=θ0+θ1x1+θ2x2+⋯+θnxn=∑i=0nθixi,其中θi\theta_iθi是参数,x0x_0x0常设为1。
(二)逻辑函数(sigmoid函数)
sigmoid函数表达式为g(z)=11+e−zg(z)=\frac{1}{1 + e^{-z}}g(z)=1+e−z1 。其图像呈S形曲线,有以下特性:
- 输出值在0到1之间。
- 函数单调递增,z=0z = 0z=0时,g(0)=0.5g(0)=0.5g(0)=0.5。
- 导数为g′(z)=g(z)(1−g(z))g^\prime(z)=g(z)(1 - g(z))g′(z)=g(z)(1−g(z)) 。
(三)逻辑回归模型
将线性回归输出z=∑i=0nθixiz=\sum_{i=0}^{n}\theta_ix_iz=∑i=