逻辑回归(Logistic Regression, LR)

本文深入探讨了最大似然估计的概念,通过抛硬币实验解释了如何找到最有可能的概率参数。介绍了似然函数及其在极大似然估计中的应用,以及为何在求解过程中常取对数似然。

学概率论的时候不是多么用心,这部分也是随便看看,在此补上。

对似然函数(likelihood function)的理解,极大似然估计

  1. 大家都知道,概率是对要发生事件的结果的预测,而似然就是知道事件的结果对概率进行反推。在某个概率上,某事件最有可能发生。最大似然估计,就是某事件最有可能的那个概率(就是好多文章里面提到的参数)”。
  2. 来个好多文章里面的例子:抛硬币,首先条件,质量分布不均匀,抛的结果是2正1反,(抛正概率为p),p为多少最有可能出现这种情况。
    y=p2(1−p),对y求导,就可得到相应的p=23y=p^2(1-p),对y求导,就可得到相应的p=\frac23y=p2(1p)yp=32

ps:大家都知道最有可能又不是一定是它,p=0.5 也可以出现这种情况。可是在样本足够多的时候,这就是答案了。

  1. 对数似然(方便求最大值)
    好多文章都说,取对数不会影响y(likelihood function)的单调性, 所以在这里稍稍证明一下令y=f(x),取对数得到g(x)=log(f(x))令y=f(x),取对数得到g(x)=log(f(x))y=fxgx=log(f(x))g′(x)=1f(x)f′(x)在(0&lt;f(x)&lt;=1)对应的x区间单调性和g&#x27;(x)=\frac 1{f(x)}f&#x27;(x)在(0&lt;f(x)&lt;=1)对应的x区间单调性和g(x)=f(x)1f(x)(0<f(x)<=1)xf′(x)是一样的,所以放心的取对数吧f&#x27;(x)是一样的,所以放心的取对数吧f(x)

ps:log 的底可能是2,e,10,具体看上下文,此处为e

  1. 最大似然估计
    可以发现,逻辑回归核心还是最大似然估计,找到使函数最大的参数。
    最大似然估计的一般求解过程:
    (1) 写出似然函数;
    (2) 对似然函数取对数,并整理;
    (3) 求导数 ;
    (4) 解似然方程
    和逻辑回归的步骤是不是很像。
    在Andrew ng的课程里取对数后取了负,是为了使用梯度下降才这样的。
  2. one vs all
    这是对多个feature进行LR处理的方法,feature数目n大于2时,把一个feature和其它所有feature组成二元。所以一共进行n次。
    在这里插入图片描述
### 回答1: Logistic回归(LR)是一种用于分类问题的线性模型。它通过计算输入特征的加权和来预测结果的概率属于某个类别。 具体来说,给定一些输入特征 $x_1, x_2, ..., x_n$,我们希望预测结果 $y$ 是否属于某个类别。我们将输入特征与权重 $w_1, w_2, ..., w_n$ 相乘,然后加上一个偏置项 $b$,得到一个线性函数 $f(x)$ 的输出值: $$f(x) = w_1x_1 + w_2x_2 + ... + w_nx_n + b$$ 接下来,我们使用一个函数 $g(x)$ 将输出值 $f(x)$ 转化为概率值 $p$。这个函数称为逻辑函数,它通常采用下列形式: $$g(x) = \frac{1}{1 + e^{-f(x)}}$$ 最后,我们根据 $p$ 的值来判断结果 $y$ 是否属于我们感兴趣的类别。例如,如果我们希望预测某个人是否患有某种疾病,那么我们可以设定阈值 $t$,如果 $p \ge t$ 则预测患病,否则预测不患病。 训练过程通常是这样的:我们给定一组训练数据,其中包含输入特征和对应的真实类别,然后通 ### 回答2: 逻辑回归(Logistic regression, LR)是一种常用的统计学和机器学习方法,主要用于分类问题。它通常被用来预测二元结果,即目标变量只有两个可能的取值。逻辑回归的核心思想是通过建立一个根据输入变量的线性组合来预测输入实例属于某个类别的概率。 逻辑回归的模型基于一个称为逻辑函数(或者称为Sigmoid函数)的概念,将线性组合的结果压缩到0到1之间的概率范围内。逻辑函数的公式为h(x) = 1 / (1 + e^(-z)),其中z是线性组合的结果。 逻辑回归的参数估计通常是通过最大似然估计或者梯度下降等优化算法来实现的。最常见的优化算法是梯度下降法,通过迭代减小损失函数来找到最佳的参数值,使得模型能够最好地拟合训练数据。 逻辑回归还可以应用于多分类问题,通过扩展二元逻辑回归为多个类别进行预测。其中最常见的方法是一对多(OvR)和多分类逻辑回归(Multinomial LR)逻辑回归在众多领域中广泛应用,如医学、金融、市场营销等。它具有简单易用,计算效率高和可解释性好的优点。然而,它也存在一些限制,比如对于非线性关系的建模能力较弱。 总之,逻辑回归是一种常用的分类方法,通过建立一个概率模型,可以预测二元结果,并在实际应用中发挥重要作用。 ### 回答3: 逻辑回归LR)是一种常用的统计学习方法,用于建立二分类模型。它可以预测一个事件发生的概率,常用于解决分类问题。 逻辑回归使用了逻辑函数(也称为Sigmoid函数),将线性回归模型的结果映射到[0,1]的概率区间之间。逻辑回归的目标是找到最佳的参数值,使得对给定输入实例的分类概率最大化。 对于每个输入实例,逻辑回归计算一个加权线性函数的输出,并将其通过逻辑函数进行映射得到一个概率值。当概率超过一个预定义的阈值时,预测结果为正类,否则为负类。模型的训练过程通过最大似然估计来确定最优的参数。 逻辑回归具有很多优点,比如计算效率高、模型解释性强、易于实现和理解,并且不容易出现过拟合的问题。此外,它对特征的线性关系并不敏感,所以即使特征之间具有一定的相关性,也能够得到较好的分类结果。 然而,逻辑回归也存在一些局限性。例如,它只能处理二分类问题,对于多分类问题需要通过其他扩展方法进行处理。另外,逻辑回归对异常值和噪声比较敏感,这可能会影响模型的性能。 总之,逻辑回归是一种简单但有效的分类算法,适用于很多实际问题。它在预测概率值和处理二分类问题方面表现出色,广泛应用于各个领域,如医学、金融、市场营销等。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值