一、什么是逻辑回归
逻辑回归模型是经典的统计模型,主要用于处理二分类问题(预测一个事件发生与否的概率)。得益于其简单性和高度可解释性,逻辑回归在业务中常被用作baseline之一。即便是上亿量级的数据,也能够在很短的时间内完成逻辑回归模型的训练和部署,这使得在一部分重反馈速度、轻性能指标的业务场景中应用逻辑回归成为了常态,比如在一些低性能芯片中进行算法模型的边端部署时,常用逻辑回归(甚至是人工规则)作为边端模型。
二、逻辑回归模型原理
逻辑回归模型包括两个部分:一个是线性回归函数;另一个是应用在线性回归函数输出结果上的逻辑函数(Sigmoid函数),它将线性回归的输出映射到0和1之间,从而可以将线性输出表示为概率。
1、线性回归函数
首先,计算一个线性组合,即输入特征与权重的点积加上偏置项(截距)。
其中,k为特征权重,b为函数偏置,x为特征。至此,完成逻辑回归模型第一步的计算。
2、Sigmoid函数
给定输入特征x时,样本属于类别1的概率可以使用Sigmoid函数计算:
其中,z则为线性回归函数,由此输出一个介于0和1之间的概率值。这意味着逻辑回归可以提供关于分类决策的不确定性的信息。在二分类问题中,通常将概率值0.5作为阈值,当p大于0.5时,预测类别为1;否则,预测类别为0。因此,虽然逻辑回归模型包含“回归”二字,实际上它是一个分类模型。
三、模型损失函数
逻辑回归模型训练过程中的参数优化一般使用最大似然估计来实现。对应的损失函数是交叉熵损失(Cross-Entropy Loss),也称为对数损失(Log Loss)。

最低0.47元/天 解锁文章
4355

被折叠的 条评论
为什么被折叠?



