优势比和最大似然

本文介绍了优势比作为一种描述分类变量间关系的方法,通过实例说明其计算方式。同时,讲解了最大似然估计的概念及其在估计未知参数时的应用,如分析熬夜与肥胖的相关性,并通过实际例子演示了如何使用最大似然估计求解问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 优势比 odds ratio
1.1 什么是优势比        

优势比(odds ratio;OR)是一种描述概率的方式,用于反映分类变量之间的相关性。

  • 优势:设定p为事件发生的概率,则发生的优势为,odds= p/1-p。
  • 优势比:p1为事件1发生的概率,p2为事件2发生的可能/概率,

                        优势比为odds ratio= (p1/(1-p1)) /(p2/(1-p2))

                        可以理解为事件1发生的概率相较于事件2发生概率的比值。

1.2举例和公式

问题:熬夜和肥胖是否相关?

数据:身材胖/瘦人群,分别统计熬夜人群和不熬夜人群和结构

是否熬夜/身材

熬夜

25

19

不熬夜

15

21

  • 胖子人群熬夜的优势= (25/(25+15) ) / (1-25/(25+15) )=25/15= 1.67
  • 瘦子人群熬夜的优势= (19/(19+21) ) / (1-19/(19+21) )=19/21= 0.9
  • 则 胖子熬夜的概率/ 瘦子熬夜的概率 = 胖瘦和熬夜的优势比 = 1.67/0.9 =1.86>1

结论:

  • OR = 1,胖瘦与熬夜没有相关性;
  • OR > 1,熬夜会增加肥胖概率;
  • OR < 1,熬夜会降低肥胖概率;
2. 最大似然估计
2.1 似然和概率

我们常常用概率(Probability) 来描述一个事件发生的可能性。

似然性(Likelihood) 正好反过来,意思是一个事件实际已经发生了,反推在什么参数条件下,这个事件发生的概率最大。

用数学公式来表达上述意思,就是:

  • 已知参数 θ 前提下,预测某事件 x 发生的条件概率为 P(x|θ) ;
  • 已知某个已发生的事件 x,未知参数 θ 的似然函数为 L(θ|x);
  • 上面两个值相等,即: P(x|θ)=L(θ|x)。需要说明的是两者在数值上相等,但是意义并不相同,一个是关于 θ 的函数,一个是关于 x 的函数,两者从不同的角度描述一件事情。
2.2 最大似然估计的概念

最大似然估计Maximum Likelihood Estimate的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。

当我们已知事件x发生后,从θ1,θ2,⋯,θn中找出哪一个 θ 参数使的似然函数的值到达了最大值,说明在这个参数下最有可能发生x事件,即这个参数最合理。

2.3 举例和公式

假设一个袋子装有白球与红球,比例未知,现在抽取10次(每次抽完都放回,保证事件独立性),假设抽到了7次白球和3次红球,在此数据样本条件下,估计袋子中白球和红球的比例。大家会猜比例是7:3。

利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。就是采用最大似然估计法求解袋子中白球的比例。

我们已知:

  • 样本空间D={x1,x2...,xn}为本次实验的样本空间;
  • 白球出现的概率为θ;
  • 红球出现的概率为1-θ。

概率函数P(x1,x2...,xn|θ)称为对于样本空间Dθ的似然函数。

        

如果\hat{\Theta }是参数空间中能使似然函数L(θ)最大的θ值,则\hat{\Theta }应该是“最可能”的参数值,那么\hat{\Theta }就是θ的极大似然估计量,记作。

        

解本案例如下:

  1. 取一次的概率函数为(取到白球时x=1,红球时x=0):
  2. 令模型M=f(x;θ)
  3. 本次事件的概率为:

(为什么多此一举用M转换一次? 只是为了让我理解网上很多资料里面的公式推导,这里的M可以是线性概率密度函数,也可以是正态分布函数等等。)

        ​​​​​​​

  • 本次事件发生的概率为: 
  • 令函数值最大,就是对函数求导,并且令导函数等于0.

        

        求解得到结果 θ=0.7

​​​​​​​2.4 最大似然估计求解过程

由上可知最大似然估计的一般求解过程:

  1. 1)写出似然函数;
  2. 2)对似然函数取对数,并整理;
  3. 3)求导数 ;
  4. 4)解似然方程

参考文档:

优势比和Logistics:大厂数据分析高频面试-逻辑回归和优势比1

最大似然:极大似然估计详解,写的太好了!_极大似然估计函数-优快云博客

最大似然估计:详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解-优快云博客

优势比:如何理解Logistic回归输出的OR值 - 知乎

### 最小二乘法与最大似然估计的原理、区别及使用场景 #### 1. 原理 最小二乘法的核心思想是通过最小化观测值与预测值之间的误差平方来寻找最佳拟合参数。其数学表达式为: ```python cost_function = Σ(y_i - ŷ_i)^2 ``` 其中,`y_i` 是实际观测值,`ŷ_i` 是模型预测值。目标是最小化该成本函数以获得最优参数[^2]。 最大似然估计则从概率的角度出发,假设数据服从某种分布(通常为正态分布),并试图找到使得观测数据出现的概率最大的参数。其核心在于最大化似然函数: ```python L(θ) = ∏P(x_i | θ) ``` 其中,`P(x_i | θ)` 表示在给定参数 `θ` 下,样本 `x_i` 出现的概率。通常通过对数转换将乘积形式转化为加形式以便计算[^4]。 #### 2. 区别 - **出发点不同**: 最小二乘法基于误差平方最小化的原则,而最大似然估计则是从概率分布的角度出发,寻找最可能产生观测数据的参数。 - **适用条件不同**: 最小二乘法不需要明确假设数据分布,但隐含假设误差服从正态分布。最大似然估计需要显式地假设数据分布类型,并根据该分布构造似然函数[^3]。 - **优化目标不同**: 最小二乘法的目标是最小化误差平方,而最大似然估计的目标是最大化似然函数或对数似然函数[^4]。 - **等价性**: 当误差项服从均值为零的正态分布时,最小二乘法与最大似然估计在结果上是等价的。这是因为正态分布下的最大似然估计问题可以转化为一个最小化平方误差的问题[^3]。 #### 3. 使用场景 - **最小二乘法**: 主要用于线性回归问题中,尤其是在误差被假定为正态分布的情况下。它适用于数据分布未知但希望快速得到参数估计的情况[^2]。 - **最大似然估计**: 更适合于已知数据分布类型(如正态分布、泊松分布等)且希望通过概率模型进行参数估计的场景。此外,在非线性模型或复杂分布假设下,最大似然估计更具优势[^4]。 #### 代码示例 以下分别展示了最小二乘法最大似然估计在简单线性回归中的实现: ##### 最小二乘法 ```python import numpy as np # 示例数据 X = np.array([1, 2, 3, 4, 5]) Y = np.array([2.2, 3.8, 6.1, 8.9, 11.0]) # 计算斜率截距 n = len(X) slope = (n * np.sum(X * Y) - np.sum(X) * np.sum(Y)) / (n * np.sum(X**2) - (np.sum(X))**2) intercept = (np.sum(Y) - slope * np.sum(X)) / n print(f"最小二乘法得到的斜率: {slope}, 截距: {intercept}") ``` ##### 最大似然估计 ```python from scipy.optimize import minimize # 定义负对数似然函数(正态分布假设) def neg_log_likelihood(params): m, c, sigma = params residuals = Y - (m * X + c) return np.sum(-np.log(sigma) - 0.5 * ((residuals / sigma)**2)) # 初始猜测 initial_guess = [1, 1, 1] # 最小化负对数似然 result = minimize(neg_log_likelihood, initial_guess, method='BFGS') m_ml, c_ml, sigma_ml = result.x print(f"最大似然估计得到的斜率: {m_ml}, 截距: {c_ml}, 标准差: {sigma_ml}") ``` --- ####
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值