机器学习之逻辑回归算法(三)

本文深入讲解逻辑回归,一种经典的二分类算法。从Sigmoid函数出发,解析如何将任意输入映射为概率,介绍决策边界特性及非线性可能。通过公式推导,详细解释了逻辑回归的目标函数、似然函数及梯度下降法参数更新过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归 Logistic regression

**目的:**经典的二分类算法

机器学习算法选择:先逻辑回归再用复杂的,能简单还是简单的

逻辑回顾的决策边界:可以是非线性的

Sigmoid 函数:
  • 公式:g(z)=11+e−zg(z) = \frac{1}{1+e^{-z}}g(z)=1+ez1

  • 自变量取值为任意实数,值域为[0,1]

  • 解释:将任意的输入映射到[0,1]区间,我们在现行回归中可以得到一个预测值,再将该值映射到Sigmoid函数中,这样就完成了由值到概率的转换,也就是分类任务。

    在这里插入图片描述

  • 目标函数

预测函数:hθ(x)=g(θTx)=11+e−θTxh_\theta(x)=g(\theta^Tx)=\frac{1}{1+e^{-\theta^Tx}}hθ(x)=g(θTx)=1+eθTx1, 其中,θTx=θ0+θ1x1+...+θnxn=∑i=1n=θTx\theta^Tx = \theta_0+\theta_1x_1+...+\theta_nx_n=\sum_{i=1}^n=\theta^TxθTx=θ0+θ1x1+...+θnxn=i=1n=θTx

  • 分类任务:

    P(y=1)=hθ(x),P(y=0)=1−hθ(x)P(y=1) = h_\theta(x),P(y=0)=1-h_\theta(x)P(y=1)=hθ(x),P(y=0)=1hθ(x)

    对上面两个式子进行整合:
    P(y)=(hθ(x))y(1−hθ(x))1−y P(y) = (h_\theta(x))^y(1-h_\theta(x))^{1-y} P(y)=(hθ(x))y(1hθ(x))1y

  • 似然函数:
    L(θ)=∏i=1m(hθ(x))y(1−hθ(x))1−y L(\theta)=\prod_{i=1}^m(h_\theta(x))^y(1-h_\theta(x))^{1-y} L(θ)=i=1m(hθ(x))y(1hθ(x))1y

  • 对数似然:
    l(θ)=L(θ)=∑i=1m(yiloghθ(xi)+(1−yi)log(1−hθ(x))) l(\theta)=L(\theta)=\sum_{i=1}^m\Big(y_ilogh_\theta(x_i)+(1-y_i)log(1-h_\theta(x))) l(θ)=L(θ)=i=1m(yiloghθ(xi)+(1yi)log(1hθ(x)))
    此时应用梯度上升求最大值,引入J(θ)=−1ml(θ)J(\theta)=-\frac{1}{m}l(\theta)J(θ)=m1l(θ) 转换为梯度下降任务

    与上次一样,我们进行对上式进行求导:

求导过程

求完偏导之后,即我们可以得到参数更新的方向。

  • 参数更新:θj=θj−α1m∑i=1m(hθ(xi)−yi)xij\theta_j=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^m\big(h_\theta(x_i)-y_i\big)x_i^jθj=θjαm1i=1m(hθ(xi)yi)xij 其中α\alphaα 为学习步长。

所有的努力都值得期许,每一份梦想都应该灌溉!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值