统计学习方法(六):逻辑斯蒂回归和最大熵模型

本文深入探讨了逻辑斯蒂回归的基本原理,包括其作为判别模型的角色,如何通过sigmoid函数将线性回归转换为二分类任务,以及二项逻辑斯蒂回归的具体推导过程。此外,还介绍了最大熵模型的核心思想,即在给定约束条件下选择熵最大的模型,以实现最自然的概率分布。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 逻辑斯蒂回归:判别模型,分类

  • 二项逻辑斯蒂回归思路:
    线性回归的预测值为一系列实值,为了使输出值变成分类所需的0和1,需要有一个映射将线性回归的输出变在(0,1)之间。这个函数为sigmoid函数。
    sigmoid(x)=11+e−xsigmoid(x)=\frac{1}{1+\mathrm{e}^{-x }}sigmoid(x)=1+ex1
    将线性函数y = wx+b 先合并b到矩阵中:y = w’x’,代入到sigmoid函数中:
    y(x)=11+e−wxy(x)=\frac{1}{1+\mathrm{e}^{-wx }}y(x)=1+ewx1
    但是现在只是将输出限定在(0,1)间,还没有完成0、1二分类,应该出现一个阈值作为0或者1的判断界限。这个阈值就是要学习的东西,反映在参数上就是w和b。
    p1=P(Y=1∣x)=exp⁡(w⋅x)1+exp⁡(w⋅x)p_{1} = P(Y=1 \mid x)=\frac{\exp (w \cdot x)}{1+\exp (w \cdot x)}p1=P(Y=1x)=1+exp(wx)exp(wx)
    p0=P(Y=0∣x)=11+exp⁡(w⋅x)p_{0} = P(Y=0 \mid x)=\frac{1}{1+\exp (w \cdot x)}p0=P(Y=0x)=1+exp(wx)1
    P(y∣x)=p1yp01−yP(y \mid x)=p_{1}^{y} p_{0}^{1-y}P(yx)=p1yp01y
    那么目的就是将P(y∣x)P(y \mid x)P(yx)最大化,输出使它最大化的w和b
    具体推导:在这里插入图片描述
    其中的φ\varphiφ表示exp⁡(w⋅x)1+exp⁡(w⋅x)\frac{\exp (w \cdot x)}{1+\exp (w \cdot x)}1+exp(wx)exp(wx)

  • 二项逻辑斯蒂回归可以推广至多项逻辑斯蒂回归,原理使一样的,只是分类不在只是0和1。

  • 最大熵模型:判别模型

  • 核心:解决约束最优化问题

  • 思想:在给定训练集下,即给定约束(经验知识)下,能够得到符合约束的条件概率模型集合{P(y|X)}。其中,约束通过特征函数关联到条件概率,条件概率通过熵进行选择。

  • 最大熵:在约束条件的情况下,会出现很多个满足约束条件的模型,其中该选哪一个呢?选择熵最大的,也就是最无法确定的是最符合自然规律的。

  • 推导:根据约束和最大熵变为约束最优化问题,也就是一个方程组。
    max⁡P∈CH(P)=−∑x,yP~(x)P(y∣x)log⁡P(y∣x) s.t. EP(fi)=Ep~(fi),i=1,2,⋯ ,n∑yP(y∣x)=1\begin{array}{cl}\max _{P \in C} & H(P)=-\sum_{x, y} \tilde{P}(x) P(y \mid x) \log P(y \mid x) \\ \text { s.t. } & E_{P}\left(f_{i}\right)=E_{\tilde{p}}\left(f_{i}\right), \quad i=1,2, \cdots, n \\ & \sum_{y} P(y \mid x)=1\end{array}maxPC s.t. H(P)=x,yP~(x)P(yx)logP(yx)EP(fi)=Ep~(fi),i=1,2,,nyP(yx)=1

    • 这里的约束条件是:训练集样本经验分布的期望Ep~(fi)E_{\tilde{p}}\left(f_{i}\right)Ep~(fi)=模型的期望EP(fi)E_{P}\left(f_{i}\right)EP(fi)。以及所有情况的条件概率和为1。
      在这里插入图片描述
    • 这里的最大熵为:P(y∣x)P(y \mid x)P(yx)的条件熵,也就是:max⁡pϵCH(P)=−∑x,yP~(x)P(y∣x)log⁡P(y∣x)\max _{p_{\epsilon} \mathbf{C}} \quad H(P)=-\sum_{x, y} \tilde{P}(x) P(y \mid x) \log P(y \mid x)pϵCmaxH(P)=x,yP~(x)P(yx)logP(yx)
    • 这里转化为高数问题,运用拉格朗日乘子法计算约束问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值