逻辑回归:损失函数与梯度下降

本文深入探讨逻辑回归中的sigmoid函数、极大似然估计与损失函数的关系,详细介绍了损失函数的推导过程,以及通过梯度下降法优化参数。文章通过实例解释了如何使用梯度下降法进行逻辑回归的权重更新,同时提到了损失函数的另一种表达形式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.1 sigmoid函数

由于二分类结果是1或者0,这与数学的阶跃函数很类似,但是阶跃函数在x=0的位置会发生突变,这个突变在数学上很难处理。所以一般使用sigmoid函数来拟合:

g(z)=11+ez(1)

具体应用到逻辑回归算法中:

z=ω0+ω1x1+ω2x2+......+ωnxn=i=0nωixiωTX(2)

其中 xi 表示样本属性(对于我们而言,就是标签IP)的值, ωi 表示这个属性对应的系数(也就是算法需要计算的内容)。注意这里将 x0 ω0 也代入了上述公式,其中前者恒为1。于是问题就变成了在训练样本中,已知属性x与最终分类结果y(1或者0)时,如何求得这些系数 ωi ,使得损失最小。

1.2 极大似然估计MLE与损失函数

在机器学习理论中,损失函数(loss function)是用来衡量模型的预测值 f(x) 与真实值 Y 的不一致程度,它是一个非负实值函数,损失函数越小,模型越优(还需考虑过拟合等问题)。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子

ω=argminω1mi=1mL(yi,f(xi;ω))+λ Φ(ω)(3)

其中m表示样本的数量。对于逻辑回归,其loss function是log损失,这可以通过极大似然估计进行推导得到。

首先,给定一个样本 x ,可以使用一个线性函数对自变量进行线性组合,即上述的(2)式子:

z=ω0+ω1x1+ω2x2+......+ωnxn=i=0nωixiωTX(4)

根据sigmoid函数,我们可以得出预测函数的表达式为:

hω(x)=g(ωTx)=11+eωTx(5)

上式表示 y=1 的预测函数为 hω(x) 。在这里,假设因变量 y 服从伯努利分布,取值为 0 1 ,那么可以得到下列两个式子:
p(y=1|
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值