机器学习--逻辑回归

本文深入解析了逻辑回归这一经典分类算法,介绍了sigmoid函数及其导数、假设函数、目标函数及优化方法等内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习–逻辑回归

如有错误或者疑问,欢迎交流,转载请注明出处

定义

逻辑回归(logistic regression)是分类算法

  • sigmoid函数
    g(z)=11+ez

    g(z)===1(1+ez)2ez11+ez(111+ez)g(z)(1g(z))

  • 假设函数hypotheses
    h(x)=g(θTx)=11+eθTx

    认为h(x)代表其为正例的概率

    p(y|x;θ)=h(x)y(1h(x))1y

  • 目标函数
    转换成概率之后,一般使用最大似然的方法,概率相乘,m是训练样本数目

    L(θ)=mi=1h(xi)yi(1h(xi))1yi

    loglike hood:
    l(θ)=mi=1yilogh(xi)+(1yi)log(1h(xi))

    目标就是最大化loglike hood函数

优化目标函数

  • 梯度上升
    以一个样本为例
    l(θj)/θj====(y1h(x)(1y)11h(x))θjh(x)(y1h(x)(1y)11h(x)))h(x)(1h(x))θjθTx(y(1h(x))(1y)h(x))xj(yh(x))xj

    θj:=θj+α(yh(x)xj)

    batch gradient ascent

    θj:=θj+mi=1α(yih(x(i)))x(i)j

  • 牛顿法

    首先f(x+Δx)=f(x)+f(x)Δx+f′′(x)Δx2

    利用极值点的必要条件Δf(x)=0

    得到xn+1=xnf(xn)f′′(xn)

    =====================================
    用在逻辑回归的目标函数中

    θ:=θ+H1Δ (注意这里是梯度上升)

    Δi=θil(θ)

    Hij=θiθjl(θ)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值