对数几率回归

本文详细介绍了对数几率回归(Logistic Regression),包括公式推导、模拟算法、随机梯度上升(SGA)及其在实际问题中的应用。讨论了其优缺点,并给出了在机器学习实战中处理数据和训练算法的步骤。通过对Horse-Colic数据集的分析,展示了如何利用随机梯度上升算法找到最佳回归参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对数几率回归(logistic regression),也常被叫做逻辑回归,用于分类任务当中。

优点:计算代价不高,易于理解和实现

缺点:容易欠拟合,分类精度可能不高

在使用线性模型进行二分类任务时,需要找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来,二分类任务中,输出非0即1,而线性模型则是连续的任意值,二者需要做映射,考虑亥维赛德阶跃函数(单位阶跃函数)
f ( x ) = { 0 x < 0 0.5 x = 0 1 x > 0 f(x) = \begin{cases} 0 & x<0 \\ 0.5 & x=0 \\ 1 & x>0 \end{cases} f(x)=00.51x<0x=0x>0
但该函数不连续,在后续的处理中不是很合适,所以采用另一种近似阶跃函数的单调可微函数,对数几率函数(Sigmoid 函数)。
y = 1 1 + e − z y = \frac{1}{1+e^{-z}} y=1+ez1
将线性回归模型的结果z计算函数值g(z),g(z)>0在分类为1,否则为0。

公式推导

假设z = Θ^Tx为线性回归模型
g ( z ) = 1 1 + e − θ T x ⟹ 1 − g ( z ) g ( z ) = 1 + e − θ T x g(z) = \frac{1}{1+e^{-\theta^{T}x}} \Longrightarrow \frac{1-g(z)}{g(z)} = 1+e^{-\theta^{T}x} g(z)=1+eθTx1g(z)1g(z)=1+eθTx
假设g(z)是将样本分类为1的概率,则:
P { g ( z ) = 1 ∣ x ; θ } = 1 1 + e − θ T x = h θ ( x ) P { g ( z ) = 0 ∣ x ; θ } = e − θ T x 1 + e − θ T x = 1 − h θ ( x ) P\{g(z) = 1|x;\theta\} = \frac{1}{1+e^{-\theta^{T}x}} = h_\theta(x) \\ P\{g(z) = 0|x;\theta\} = \frac{e^{-\theta^{T}x}}{1+e^{-\theta^{T}x}} = 1-h_\theta(x) P{ g(z)=1x;θ}=1+eθTx1=hθ(x)P{ g(z)=0x;θ}=1+eθTxeθTx=1hθ(x)
构建损失函数:
L o s s ( h θ ( x ) , y ) = h θ ( x ) y ( 1 − h θ ( x ) ) 1 −

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值