Maximum likelihood function 为什么是乘积形式?

最大似然函数(Maximum Likelihood Function)通常是乘积形式的原因在于它是基于独立同分布(independent and identically distributed, i.i.d.)的假设。在统计学中,当我们有一个数据集,并且假设数据集中的每个观测值都是从同一个概率分布中独立抽取的,那么这些观测值可以被视为是独立的随机变量

对于参数模型,我们通常有一个概率密度函数(probability density function, PDF)或概率质量函数(probability mass function, PMF),它描述了一个观测值在给定参数下出现的概率。如果我们有一个由 n 个独立观测值 x_1, x_2, …, x_n 组成的数据集,并且每个观测值都是独立同分布的,那么整个数据集的概率(即联合概率密度)就是每个观测值概率的乘积。

L(θ)=f(x1;θ)⋅f(x2;θ)⋅…⋅f(xn;θ) L(\theta) = f(x_1; \theta) \cdot f(x_2; \theta) \cdot \ldots \cdot f(x_n; \theta) L(θ)=f(x1;θ)f(x2;θ)f(xn;θ)
这里,( L(\theta) ) 是似然函数,它是参数 ( \theta ) 的函数,表示在参数 ( \theta ) 下观测到数据集的概率。在最大似然估计中,我们寻找使得 ( L(\theta) ) 最大化的参数 ( \theta ),即:
θ^=arg⁡max⁡θL(θ) \hat{\theta} = \arg\max_\theta L(\theta) θ^=argθmaxL(θ)
由于对数函数是单调递增的,我们通常取似然函数的对数来简化计算,因为乘积变成了求和,这样在数值上更稳定,也更容易处理。这就是为什么在实践中我们经常看到对数似然函数而不是原始的乘积形式的似然函数。
log⁡L(θ)=log⁡f(x1;θ)+log⁡f(x2;θ)+…+log⁡f(xn;θ) \log L(\theta) = \log f(x_1; \theta) + \log f(x_2; \theta) + \ldots + \log f(x_n; \theta) logL(θ)=logf(x1;θ)+logf(x2;θ)++logf(xn;θ)
最大化 ( \log L(\theta) ) 等价于最大化 ( L(\theta) )。这个过程就是最大似然估计的核心。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

「已注销」

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值