写在前面
最大似然估计具有很多好的性质,包括相合性,同变性,渐进正态性等。本文主要关注的是渐进正态性。渐近正态性表明,估计量的极限分布是正态分布。而该正态分布的方差,与Fisher信息有着密不可分的关系。
Fisher信息
(定义)记分函数(Score Function):
s(X;θ)=∂logf(X;θ)∂θ.s(X;\theta)=\frac{\partial logf(X;\theta)}{\partial \theta}.s(X;θ)=∂θ∂logf(X;θ).
(定义)Fisher信息量(Fisher Information):
In(θ)=V(∑i=1ns(Xi;θ))=∑i=1nV(s(Xi;θ)) \begin{aligned} I_n(\theta)&=\mathbb{V}(\sum_{i=1}^{n}s(X_i;\theta))\\ &=\sum_{i=1}^{n}\mathbb{V}(s(X_i;\theta)) \end{aligned} In(θ)=V(i=1∑ns(Xi;θ))=i=1∑nV(s(Xi;θ))
(定理)
Eθ[s(X;θ)]=0\mathbb{E}_\theta[s(X;\theta)]=0Eθ[s(X;θ)]=0
证明:
Eθ[s(X;θ)]=∫x∂logf(x;θ)∂θf(x;θ)dx=∫x1f(x;θ)∂f(x;θ)∂θf(x;θ)dx=∫x∂f(x;θ)∂θdx=∂∂θ∫xf(x;θ)dx=∂∂θ1=0 \begin{aligned} \mathbb{E}_\theta[s(X;\theta)] &= \int_x\frac{\partial logf(x;\theta)}{\partial \theta}f(x;\theta)dx\\ &=\int_x\frac{1}{f(x;\theta)}\frac{\partial f(x;\theta)}{\partial \theta}f(x;\theta)dx\\ &=\int_x\frac{\partial f(x;\theta)}{\partial \theta}dx\\ &=\frac{\partial}{\partial \theta} \int_xf(x;\theta)dx=\frac{\partial}{\partial \theta}1\\ &=0 \end{aligned} Eθ[s(X;θ)]=∫x∂θ∂logf(x;θ)f(x;θ)dx=∫xf(x;θ)1∂θ∂f(x;θ)f(x;θ)dx=∫x∂θ∂f(x;θ)dx=∂θ∂

本文详细探讨了最大似然估计的渐近正态性特性,尤其涉及Fisher信息的作用,展示了如何通过Fisher信息量计算估计量的方差,并以伯努利分布为例说明计算过程。通过这些理论,构建了基于极大似然估计的置信区间。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



