机器学习之逻辑斯蒂回归(Logistic Regression)

前言: 学习笔记,记录下对于一些问题的记录和理解,复习和加深记忆用,挖坑补坑用。

参考:李航 《统计学习方法》

0. 基本内容

  • 逻辑斯蒂分布(logistic distribution)

    • 分布函数
      F ( x ) = 1 1 + e − ( x − μ ) / γ F(x) = \frac{1}{1+e^{-(x-\mu)/\gamma}} F(x)=1+e(xμ)/γ1

    • 密度函数
      f ( x ) = e − ( x − μ ) / γ γ ( 1 + e − ( x − μ ) / γ ) 2 f(x) = \frac{e^{-(x-\mu)/\gamma}}{\gamma(1+e^{-(x-\mu)/\gamma})^2} f(x)=γ(1+e(xμ)/γ)2e(xμ)/γ

    • 图像示意
      在这里插入图片描述

  • 逻辑斯蒂回归模型

    • 二分类
      P ( Y = 1 ∣ x ) = e − ( w x + b ) 1 + e − ( w x + b ) P ( Y = 0 ∣ x ) = 1 1 + e − ( w x + b ) P(Y=1|x) = \frac{e^{-(wx+b)}}{1+e^{-(wx+b)}} \\ P(Y=0|x) = \frac{1}{1+e^{-(wx+b)}} P(Y=1x)=1+e(wx+b)e(wx+b)P(Y=0x)=1+e(wx+b)1

    • 多分类
      P ( Y = k ∣ x ) = e − ( w k x + b ) 1 + ∑ k = 1 K − 1 e − ( w k x + b ) , k = 1 , 2 , . . . , K − 1 P ( Y = K ∣ x ) = 1 1 + ∑ k = 1 K − 1 e − ( w k x + b ) P(Y=k|x) = \frac{e^{-(w_kx+b)}}{1+\sum\limits_{k=1}^{K-1}e^{-(w_kx+b)}},k=1,2,...,K-1 \\ P(Y=K|x) = \frac{1}{1+\sum\limits_{k=1}^{K-1}e^{-(w_kx+b)}} P(Y=kx)=1+k=1K1e(wkx+b)e(wkx+b),k=1,2,...,K1P(Y=Kx)=1+k=1K1e(wkx+b)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值