1,逻辑回归的应用场景:
逻辑回归主要用于二分类问题。 在医疗领域,用于疾病诊断和治疗效果预测;在金融领域,可进行信用风险评估和金融市场趋势预测;在市场营销领域,用于客户购买行为预测和客户细分;在互联网领域,用于垃圾邮件识别和用户流失预测;在交通领域,用于交通事故风险评估等。
2,逻辑回归的原理及完整流程:
2.1:模型输入:
逻辑回归模型的输入是一组特征向量。假设我们有个n特征变量,记为,那么对于一个样本,其输入特征向量可表示为
2.2:线性组合:
首先对输入特征进行线性组合,得到一个线性表达式:
这里的是模型需要学习的参数,其中
为截距项。
2.3:激活函数(Sigmoid)函数:
接着,通过激活函数将线性组合的结果z映射到一个概率值。逻辑回归常用的激活函数是 Sigmoid 函数,其公式为:
这个p值表示样本属于正类(类别 1)的概率,而属于负类(类别 0)的概率为1-p。
2.4:损失函数:
在逻辑回归中,常用的损失函数是对数似然损失函数。对于一个包含个m样本的数据集(其中
是第个
样本的特征向量,
是对应的类别标签),对数似然损失函数为:
这里的目标是要最小化这个损失函数,找到使得损失函数最小的参数的值。
2.5:优化(梯度下降法)
梯度下降法是用于优化模型参数以最小化损失函数的常用方法。其基本思想是沿着损失函数的梯度反方向更新参数,使得损失函数逐渐减小。
对于逻辑回归模型,参数更新公式如下:
其中是学习率,它控制着每次参数更新的步长。
计算梯度需要对损失函数求偏导,这里以
(
)为例(的更新类似):
=

最低0.47元/天 解锁文章
8万+

被折叠的 条评论
为什么被折叠?



