在参数估计和统计中,Cramer-Rao界限(Cramer-Rao bound, CRB)或者Cramer-Rao下界(CRLB),表示一个确定性参数的估计的方差下界。命名是为了纪念Harald Cramer和Calyampudi Radhakrishna Rao。这个界限也称为Cramer-Rao不等式或者信息不等式。
它的最简单形式是:任何无偏估计的方差至少大于Fisher信息的倒数。一个达到了下界的无偏估计被称为完全高效的(fully efficient)。这样的估计达到了所有无偏估计中的最小均方误差(MSE,mean square error),因此是最小方差无偏(MVU,minimum variance unbiased)估计。
给定偏倚,Cramer-Rao界限还可以用于确定有偏估计的界限。在一些情况下,有偏估计方法的结果可能方差和均方差都小于无偏估计的Cramer-Rao下界。
标量情形
标量的无偏情形
假设θ\thetaθ是一个位置确定性参数。我们需要从观察变量xxx估计它。而它们满足一个概率密度函数f(x;θ)f(x;\theta)f(x;θ)。任何θ\thetaθ的无偏估计θ^\hat{\theta}θ^的方差的下界为Fisher信息I(θ)I(\theta)I(θ)的倒数:
\begin{equation}
\mathrm{Var}{\hat{\theta}} \ge \frac{1}{I(\theta)}
\end{equation}
其中Fisher信息定义为
\begin{equation}
I(\theta) = \mathrm{E}[(\frac{\partial \ln f(x;\theta)}{\partial \theta})^2] =-\mathrm{E}[\frac{\partial^2 \ln f(x;\theta)}{\partial \theta^2}]
\end{equation}
其中E\mathrm{E}E表示求期望。
无偏估计θ^\hat{\theta}θ^的效率描述估计的方差有多接近下限,定义为
\begin{equation}
e(\theta) = \frac{I(\theta)^{-1}}{\mathrm{Var} (\hat \sigma)}
\end{equation}
显然有
\begin{equation}
0 \le e(\hat{\sigma}) \le 1
\end{equation}
标量的一般情形
更一般的情况是考虑参数θ\thetaθ的无偏估计T(X)T(X)T(X)。这里的无偏性理解为E[T(X)]=ϕ(θ)\mathrm{E} [ T(X)] = \phi (\theta)E[T(X)]=ϕ(θ)。这种情况下,方差的下界为
\begin{equation}
\mathrm{Var}(T) \ge \frac{[\phi’(\theta)]^2}{I(\theta)}
\label{eq:gsc}
\end{equation}
其中ϕ′(θ)\phi'(\theta)ϕ′(θ)表示ϕ(θ)\phi(\theta)ϕ(θ)关于θ\thetaθ的导数,I(θ)I(\theta)I(θ)仍然是Fisher信息。
有偏估计的界限
考虑估计θ^\hat\thetaθ^,设其偏倚b(θ)=E[θ^]−θb(\theta) = \mathrm{E}[\hat\theta] - \thetab(θ)=E[θ^]−θ,令ϕ(θ)=b(θ)+θ\phi(\theta) = b(\theta) + \thetaϕ(θ)=b(θ)+θ。利用上式,任何期望为ϕ(θ)\phi(\theta)ϕ(θ)的无偏估计的方差都大于等于(ϕ′(θ)2)/I(θ))(\phi'(\theta)^2) / I(\theta))(ϕ′(θ)2)/I(θ))。于是
\begin{equation}
\mathrm{Var} (\hat{\theta}) \ge \frac{[1 + b’(\theta)]^2}{I(\theta)}
\end{equation}
当b(θ)=0b(\theta) = 0b(θ)=0,上式退化为无偏估计得方差界限。当估计θ^\hat\thetaθ^退化为常数(概率密度函数为脉冲函数),则方差退化为0。
从上式,利用标准分解可以推出有偏估计的均方误差下界为
\begin{equation}
\mathrm{E}[(\hat\theta - \theta)^2] \ge \frac{[1 + b’(\theta)]^2}{I(\theta)} + b(\theta)^2
\end{equation}
注意,如果1+b′(θ)<11+b'(\theta) < 11+b′(θ)<1,那么上式右端的下界可能小于Cramer-Rao下界。例如,当1+b′(θ)=nn+2<11+b'(\theta) = \frac{n}{n+2} < 11+b′(θ)=n+2n<1。
多元变量的情形
定义向量θ=[θ1,θ2,⋯ ,θd]T∈Rd\theta =[\theta_1, \theta_2, \cdots, \theta_d]^T \in R^dθ=[θ1,θ2,⋯,θd]T∈Rd,它的概率密度函数为f(x;θ)f(x; \theta)f(x;θ)满足后面的两个正则化条件。Fisher信息矩阵是一个d×dd \times dd×d的矩阵,元素Im,kI_{m,k}Im,k定义为
\begin{equation}
I_{m, k} = \mathrm{E}[\frac{\partial}{\partial \theta_m} \ln f(x;\theta) \frac{\partial}{\partial \theta_k} \ln f(x;\theta) ] = -\mathrm{E}[ \frac{\partial^2}{\partial \theta_m \partial \theta_k} \ln f(x;\theta) ]
\end{equation}
令T(X)T(X)T(X)为一个向量函数的估计,T(X)=(T1(X),T2(X),⋯ ,Td(X))TT(X) = (T_1(X), T_2(X), \cdots, T_d(X))^TT(X)=(T1(X),T2(X),⋯,Td(X))T,记它的期望向量E[T(X)]\mathrm{E}[T(X)]E[T(X)]为ϕ(θ)\phi(\theta)ϕ(θ)。Cramer-Rao下界认为T(X)的协方差矩阵满足
\begin{equation}
\mathrm{Cov}_\theta (T(X)) \ge \frac{\partial \phi(\theta)}{\partial \theta} [I(\theta)]^{-1} ( \frac{\partial \phi(\theta)}{\partial \theta})^T
\end{equation}
其中
- 矩阵大于等于符号A≥BA \ge BA≥B表示A−BA - BA−B是一个半正定矩阵;
- ∂ϕ(θ)/∂θ\partial \phi(\theta) / \partial \theta∂ϕ(θ)/∂θ是雅克比矩阵,它的第ijijij个元素为∂ϕi(θ)/∂θj\partial \phi_i(\theta) / \partial \theta_j∂ϕi(θ)/∂θj。
当T(X)T(X)T(X)为θ\thetaθ的无偏估计(例如T(θ)=θT(\theta) = \thetaT(θ)=θ),则Cramer-Rao法则退化为
\begin{equation}
\mathrm{Cov_\theta}(T(X)) \ge I(\theta)^{-1}
\end{equation}
两个正则化条件
边界依赖两个关于f(x;θ)f(x;\theta)f(x;θ)和T(X)T(X)T(X)的弱正则化条件:
- Fisher信息矩阵总是存在。等价地说,对于所有xxx,如果f(x;θ)>0f(x;\theta) > 0f(x;θ)>0,则∂lnf(x;θ)/∂θ\partial \ln f(x; \theta) / \partial \theta∂lnf(x;θ)/∂θ存在并且有限。
- 对xxx的积分和对θ\thetaθ的微分可以交换顺序。也就是说,在下式右侧有限时,有
\begin{equation}
\frac{\partial}{\partial \theta} [\int T(x) f(x;\theta) dx] = \int T(x) [\frac{\partial}{\partial \theta} f(x; \theta)] dx
\end{equation}
上述条件通常可以通过以下任意一个条件来确认:
- 函数f(x;θ)f(x; \theta)f(x;θ)在xxx中有边界支持,并且边界不依赖于θ\thetaθ。
- 函数f(x;θ)f(x; \theta)f(x;θ)有有限的支持,连续可微,并且对于所有θ\thetaθ积分收敛。
标量情形的证明
假设T=t(X)T = t(X)T=t(X)是一个ϕ(θ)\phi(\theta)ϕ(θ)的无偏估计,且E(T)=ϕ(θ)E(T) = \phi(\theta)E(T)=ϕ(θ)。目标是证明,对于所有θ\thetaθ,
\begin{equation}
Var(t(X)) \ge \frac{[\phi’ (\theta)]^2}{I(\theta)}
\end{equation}
令XXX为随机变量,且概率密度函数为f(x;θ)f(x;\theta)f(x;θ). T=t(X)T = t(X)T=t(X)为统计量,且作为ϕ(θ)\phi (\theta)ϕ(θ)的估计。定义VVV为概率密度函数关于θ\thetaθ的偏导数
\begin{equation}
V = \frac{\partial}{\partial \theta} \ln f(X; \theta) = \frac{1}{f(X; \theta)} \frac{\partial}{\partial \theta} f(X; \theta)
\end{equation}
可以发现,VVV的概率密度函数也是f(X;θ)f(X;\theta)f(X;θ)。利用第二个正则化条件,可以得到VVV的期望为0。即
\begin{equation}
\mathrm{E}(V) = \int f(x;\theta)[ \frac{1}{f(x; \theta)} \frac{\partial}{\partial \theta} f(x; \theta)]dx= \frac{\partial}{\partial \theta} [\int f(x;\theta) dx] = 0
\end{equation}
因为E(V)=0\mathrm{E}(V)=0E(V)=0,由协方差定义式可以推出Cov(V,T)=E(VT)\mathrm{Cov}(V, T) = \mathrm{E}(VT)Cov(V,T)=E(VT)。展开可以得到
\begin{equation}
\begin{aligned}
\mathrm{Cov}(V, T) =& \mathrm{E}(T \cdot [ \frac{1}{f(X; \theta)} \frac{\partial}{\partial \theta} f(X; \theta) ]) \
=& \int t(x)[\frac{1}{f(x; \theta)} \frac{\partial}{\partial \theta} f(x; \theta)] f(x; \theta) dx \
=& \frac{\partial}{\partial \theta} [\int t(x) f(x;\theta) dx] \
= & \phi’(\theta)
\end{aligned}
\end{equation}
由柯西-施瓦茨不等式可得
\begin{equation}
\sqrt{\mathrm{Var}(T)\mathrm{Var}(V) } \ge \vert \mathrm{Cov}(V, T) \vert = \vert \phi’(\theta) \vert
\end{equation}
因此
\begin{equation}
\mathrm{Var}(T) \ge \frac{[\phi’(\theta)]^2}{\mathrm{Var}(V)} = \frac{[\phi’(\theta)]^2}{I(\theta)}
\end{equation}
参考文献
[https://en.wikipedia.org/wiki/Cram%C3%A9r%E2%80%93Rao_bound#Regularity_conditions][1]
[1]:https://en.wikipedia.org/wiki/Cram%C3%A9r%E2%80%93Rao_bound#Regularity_conditions