【机器学习模型详细推导2】- 逻辑回归

本文详细介绍了逻辑回归模型的引入、模型描述,通过Sigmoid函数将线性回归的预测值转化为分类概率。接着,讨论了模型的代价函数,通过极大似然法推导出代价函数,并解释了为什么要除以样本数量m。最后,讲解了模型的梯度下降求解算法,包括参数更新公式和向量化表示,以便于实现最优参数θ。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 模型引入

线性模型可以进行回归学习(参见【机器学习模型1】- 线性回归),但如何用于分类任务?需要找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来。
对于二分类任务,输出标记 y y y 取值 { 0 , 1 } \{0, 1\} { 0,1},而线性回归预测值 z = w T x + b z = w^Tx+b z=wTx+b 属于实数集 R R R,所以需要一个变换使实值 z z z 映射到 0 / 1 0/1 0/1 值。
引入 S i g m o i d Sigmoid Sigmoid 函数: y = 1 1 + e − z y=\frac{1}{1+e^{-z}} y=1+ez1,可以将 z z z 值转为一个接近0或1的 y y y 值,而且单调可微。图像如下:
Sigmoid函数图像

2. 模型描述

根据广义线性模型 y = g − 1 ( θ T x ) y=g^{-1}(\theta^T x) y=g1(θTx)定义,将Sigmoid函数作为 g − 1 ( ) g^{-1}() g1()代入:
h θ ( x ) = 1 1 + e − θ T x h_\theta(x) = \frac{1}{1+e^{-\theta^T x}} hθ(x)=1+eθTx1

对数几率函数:逻辑回归也称为对数几率函数。

  • h θ ( x ) h_\theta(x) hθ(x)反映了作为正例的可能性 ,则 1 − h θ ( x ) 1-h_\theta(x) 1hθ(x) 反映了作为负例的可能性
  • 所以 h θ ( x ) 1 − h θ ( x ) \frac{h_\theta(x)}{1-h_\theta(x)} 1hθ(x)hθ(x)反映了作为正例的相对可能性, h θ ( x ) 1 − h θ ( x ) > 1 \frac{h_\theta(x)}{1-h_\theta(x)} > 1 1hθ(x)hθ(x)>1,则为正例,称为 “几率”
  • l n h θ ( x ) 1 − h θ ( x ) ln\frac{h_\theta(x)}{1-h_\theta(x)} ln1hθ(x)hθ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值