似然函数

本文介绍了似然函数的基本概念及其在统计推断中的应用,包括最大似然估计和似然比检验,并通过实例解释了如何使用似然函数进行参数估计。

来自:维基百科

数理统计学中,似然函数是一种关于统计模型中的参数函数,表示模型参数中的似然性。似然函数在统计推断中有重大作用,如在最大似然估计费雪信息之中的应用等等。“似然性”与“或然性”或“概率”意思相近,都是指某种事件发生的可能性,但是在统计学中,“似然性”和“或然性”或“概率”又有明确的区分。概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估计。

在这种意义上,似然函数可以理解为条件概率的逆反。在已知某个参数B时,事件A会发生的概率写作:

{\displaystyle P(A\mid B)={\frac {P(A,B)}{P(B)}}\!}P(A\mid B)={\frac  {P(A,B)}{P(B)}}\!

利用贝叶斯定理

{\displaystyle P(B\mid A)={\frac {P(A\mid B)\;P(B)}{P(A)}}\!}P(B\mid A)={\frac  {P(A\mid B)\;P(B)}{P(A)}}\!

因此,我们可以反过来构造表示似然性的方法:已知有事件A发生,运用似然函数{\displaystyle \mathbb {L} (B\mid A)}{\mathbb  {L}}(B\mid A),我们估计参数B的可能性。形式上,似然函数也是一种条件概率函数,但我们关注的变量改变了:

{\displaystyle b\mapsto P(A\mid B=b)\!}b\mapsto P(A\mid B=b)\!

注意到这里并不要求似然函数满足归一性:{\displaystyle \sum _{b\in {\mathcal {B}}}P(A\mid B=b)=1}\sum _{​{b\in {\mathcal  {B}}}}P(A\mid B=b)=1。一个似然函数乘以一个正的常数之后仍然是似然函数。对所有{\displaystyle \alpha >0}\alpha >0,都可以有似然函数:

{\displaystyle L(b\mid A)=\alpha \;P(A\mid B=b)\!}L(b\mid A)=\alpha \;P(A\mid B=b)\!

例子[编辑]

两次投掷都正面朝上时的似然函数

考虑投掷一枚硬币的实验。通常来说,已知投出的硬币正面朝上和反面朝上的概率各自是{\displaystyle p_{H}=0.5}p_{H}=0.5,便可以知道投掷若干次后出现各种结果的可能性。比如说,投两次都是正面朝上的概率是0.25。用条件概率表示,就是:

{\displaystyle P({\mbox{HH}}\mid p_{H}=0.5)=0.5^{2}=0.25}P({\mbox{HH}}\mid p_{H}=0.5)=0.5^{2}=0.25

其中H表示正面朝上。

在统计学中,我们关心的是在已知一系列投掷的结果时,关于硬币投掷时正面朝上的可能性的信息。
我们可以建立一个统计模型:假设硬币投出时会有{\displaystyle p_{H}}p_{H}的概率正面朝上,而有{\displaystyle 1-p_{H}}1-p_{H}的概率反面朝上。
这时,条件概率可以改写成似然函数:

{\displaystyle L(p_{H}\mid {\mbox{HH}})=P({\mbox{HH}}\mid p_{H}=0.5)=0.25}{\displaystyle L(p_{H}\mid {\mbox{HH}})=P({\mbox{HH}}\mid p_{H}=0.5)=0.25}

也就是说,对于取定的似然函数,在观测到两次投掷都是正面朝上时,{\displaystyle p_{H}=0.5}p_{H}=0.5似然性是0.25(这并不表示当观测到两次正面朝上时{\displaystyle p_{H}=0.5}p_{H}=0.5概率是0.25)。

如果考虑{\displaystyle p_{H}=0.6}p_{H}=0.6,那么似然函数的值也会改变。

{\displaystyle L(p_{H}\mid {\mbox{HH}})=P({\mbox{HH}}\mid p_{H}=0.6)=0.36}{\displaystyle L(p_{H}\mid {\mbox{HH}})=P({\mbox{HH}}\mid p_{H}=0.6)=0.36}
三次投掷中头两次正面朝上,第三次反面朝上时的似然函数

注意到似然函数的值变大了。
这说明,如果参数{\displaystyle p_{H}}p_{H}的取值变成0.6的话,结果观测到连续两次正面朝上的概率要比假设{\displaystyle p_{H}=0.5}p_{H}=0.5时更大。也就是说,参数{\displaystyle p_{H}}p_{H}取成0.6要比取成0.5更有说服力,更为“合理”。总之,似然函数的重要性不是它的具体取值,而是当参数变化时函数到底变小还是变大。对同一个似然函数,如果存在一个参数值,使得它的函数值达到最大的话,那么这个值就是最为“合理”的参数值。

在这个例子中,似然函数实际上等于:

{\displaystyle L(\theta \mid {\mbox{HH}})=P({\mbox{HH}}\mid p_{H}=\theta )=\theta ^{2}}{\displaystyle L(\theta \mid {\mbox{HH}})=P({\mbox{HH}}\mid p_{H}=\theta )=\theta ^{2}},其中 {\displaystyle 0\leq p_{H}\leq 1}0\leq p_{H}\leq 1

如果取{\displaystyle p_{H}=1}p_{H}=1,那么似然函数达到最大值1。也就是说,当连续观测到两次正面朝上时,假设硬币投掷时正面朝上的概率为1是最合理的。

类似地,如果观测到的是三次投掷硬币,头两次正面朝上,第三次反面朝上,那么似然函数将会是:

{\displaystyle L(\theta \mid {\mbox{HHT}})=P({\mbox{HHT}}\mid p_{H}=\theta )=\theta ^{2}(1-\theta )}{\displaystyle L(\theta \mid {\mbox{HHT}})=P({\mbox{HHT}}\mid p_{H}=\theta )=\theta ^{2}(1-\theta )},其中 T表示反面朝上, {\displaystyle 0\leq p_{H}\leq 1}0\leq p_{H}\leq 1

这时候,似然函数的最大值将会在{\displaystyle p_{H}={\frac {2}{3}}}p_{H}={\frac  {2}{3}}的时候取到。也就是说,当观测到三次投掷中前两次正面朝上而后一次反面朝上时,估计硬币投掷时正面朝上的概率{\displaystyle p_{H}={\frac {2}{3}}}p_{H}={\frac  {2}{3}}是最合理的。

应用[编辑]

最大似然估计[编辑]

最大似然估计是似然函数最初也是最自然的应用。上文已经提到,似然函数取得最大值表示相应的参数能够使得统计模型最为合理。从这样一个想法出发,最大似然估计的做法是:首先选取似然函数(一般是概率密度函数概率质量函数),整理之后求最大值。实际应用中一般会取似然函数的对数作为求最大值的函数,这样求出的最大值和直接求最大值得到的结果是相同的。似然函数的最大值不一定唯一,也不一定存在。与矩法估计比较,最大似然估计的精确度较高,信息损失较少,但计算量较大。

似然比检验[编辑]

似然比检验是利用似然函数来检测某个假设(或限制)是否有效的一种检验。一般情况下,要检测某个附加的参数限制是否是正确的,可以将加入附加限制条件的较复杂模型的似然函数最大值与之前的较简单模型的似然函数最大值进行比较。如果参数限制是正确的,那么加入这样一个参数应当不会造成似然函数最大值的大幅变动。一般使用两者的比例来进行比较,这个比值是卡方分配

尼曼-皮尔森引理说明,似然比检验是所有具有同等显著性差异的检验中最有统计效力的检验。

参考来源[编辑]









似然函数取得最大值表示相应的参数能够使得统计模型最为合理

极大似然法估计模型参数

  1. 为什么采用极大似然?
  2. 极大似然的处理过程中为什么选取对数似然作为求最大值的函数?

让我们先来考虑似然函数的概念:

在数理统计中,似然函数是一种关于统计模型中的参数的函数,表示模型参数中的似然性.

给出一个例子解释为什么采用极大似然: 
已知抛一枚硬币100次全是正面.

给定输出y时,关于参数 θ 的似然函数 L(θ|y) 在数值上等于给定参数 θ 后输出y的概率( P(y|θ) ).

所以这枚硬币正面朝上的概率为0.5的似然为 L(θ|)=P(|θ)=0.50.5=0.25
同理正面朝上的概率为0.8(硬币不均匀)的似然为0.64. 
从实验结果上看,我们更愿意相信这枚硬币不均匀(如果怀疑真实性,就抛100次,结果还是100次正面….),即参数正面朝上的概率为0.8更能符合我们的模型.

所以似然函数取得最大值表示相应的参数能够使得统计模型最为合理,这便解释了采用极大似然法估计LR模型参数的原因.回到LR模型,考虑该模型参数的似然函数: 
假设 

P(Y=0|θT;x)P(Y=1|θT;x)=hθ(x)=1hθ(x)

已知Y的取值服从0-1分布,因此联合概率密度为 

P(y|θT;x)=hθ(x)y(1hθ(x))1y

注意符号 P(y|θT;x) 表示的是给定输入x以 θ 为参数的情况下随机变量y的概率
所以似然函数 L(θ) 为: 

L(θ)=P(y|θT;x)=i=1NP(y(i)|θT;x(i))=i=1Nhθ(x(i))y(i)(1hθ(x(i)))1y(i)

对数似然就是对似然函数取对数,关于参数 θ 的对数似然函数为: 

l(θ)=ln [i=1Nhθ(x(i))y(i)(1hθ(x(i)))1y(i)]=i=1N[y(i)ln hθ(x(i))+(1y(i))ln(1hθ(x(i)))]=i=1N[y(i)ln hθ(x(i))y(i)ln (1hθ(x(i)))+ln(1hθ(x(i)))]=i=1N[y(i)lnhθ(x(i))1hθ(x(i))+ln(1hθ(x(i)))]

由上文对数几率的结论:  lnP(Y=0|θT;x)P(Y=1|θT;x)=θTx
因此 l(θ) 更新为: 

l(θ)=i=1N[y(i)θTxln(1+exp(θTx))]

现在对对数几率求最大值,得到参数 θ 的极大值.求解一个函数的极大值往往需要求解该函数关于未知参数的偏导数.由于对数函数是单调递增的,而且对数函数求极大值往往比较方便,所以对数函数常用于极大似然估计中,这就解释了为什么极大似然估计中选择对数似然作为求解最大值的函数.



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值