统计学习方法6 - Logistic regression和最大熵

本文介绍了Logistic回归的基本原理,包括如何利用sigmoid函数将线性回归转化为分类问题,并探讨了最大熵模型的核心思想及其如何在约束条件下选择熵最大的模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • Logistic Regression:判别模型,分类

  • 二项Logistic Regression思路:
    线性回归的预测值为一系列实值,为了使输出值变成分类所需的0和1,需要有一个映射将线性回归的输出变在(0,1)之间。这个函数为sigmoid函数。
    在这里插入图片描述
    将线性函数y = wx+b 先合并b到矩阵中:y = w’x’,代入到sigmoid函数中:
    在这里插入图片描述
    但是现在只是将输出限定在(0,1)间,还没有完成0、1二分类,应该出现一个阈值作为0或者1的判断界限。这个阈值就是要学习的东西,反映在参数上就是w和b。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    那么目的就是将 P ( y ∣ x ) P(y∣x) P(yx)最大化,输出使它最大化的w和b

  • 二项Logistic regression可以推广至多项Logistic Regression,原理使一样的,只是分类不在只是0和1

  • 最大熵模型:判别模型

  • 核心:解决约束最优化问题

  • 思想:在给定训练集下,即给定约束(经验知识)下,能够得到符合约束的条件概率模型集合{P(y|X)}。其中,约束通过特征函数关联到条件概率,条件概率通过熵进行选择。

  • 最大熵:在约束条件的情况下,会出现很多个满足约束条件的模型,其中该选哪一个呢?选择熵最大的,也就是最无法确定的是最符合自然规律的。

参考:https://blog.youkuaiyun.com/Smile_mingm/article/details/108388124?spm=1001.2014.3001.5501

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值