【无偏估计与Fisher信息矩阵】

博客围绕线性模型y = Φx + w展开,假设误差向量w满足独立同分布的高斯分布。使用最小二乘法获得参数x的无偏估计,通过最小化残差平方和,经求导、解方程得到正规方程并求解。还计算了Fisher信息矩阵,其为估计协方差矩阵的逆矩阵。

给定线性模型 y=Φx+wy = \Phi x + wy=Φx+w,其中 yyy 是观测向量,Φ\PhiΦ 是设计矩阵,xxx 是未知参数向量,www 是误差向量。假设误差向量 www 满足独立同分布的高斯分布,即 w∼N(0,σ2I)w \sim \mathcal{N}(0, \sigma^2I)wN(0,σ2I),其中 σ2\sigma^2σ2 是误差方差。

为了获得参数 xxx 的无偏估计,我们可以使用最小二乘法。最小二乘法的目标是最小化观测值 yyy 与模型预测值 y^=Φx^\hat{y} = \Phi \hat{x}y^=Φx^ 之间的差异。这可以通过最小化残差平方和来实现。

残差定义为 r=y−Φx^r = y - \Phi \hat{x}r=yΦx^,其中 x^\hat{x}x^ 是参数向量的估计值。最小二乘法的目标是最小化残差平方和,即 J(x^)=∣r∣2=∣y−Φx^∣2J(\hat{x}) = |r|^2 = |y - \Phi \hat{x}|^2J(x^)=r2=yΦx^2

为了找到最小化 J(x^)J(\hat{x})J(x^) 的解析解,我们可以对残差平方和进行求导并令导数等于零。

首先,我们对 J(x^)J(\hat{x})J(x^) 进行展开:

J(x^)=(y−Φx^)T(y−Φx^)J(\hat{x}) = (y - \Phi \hat{x})^T(y - \Phi \hat{x})J(x^)=(yΦx^)T(yΦx^)

接下来,我们对 J(x^)J(\hat{x})J(x^) 求导:

∂J(x^)∂x^=−2ΦT(y−Φx^)\frac{\partial J(\hat{x})}{\partial \hat{x}} = -2\Phi^T(y - \Phi \hat{x})x^J(x^)=2ΦT(yΦx^)

将导数等于零,得到:

∂J(x^)∂x^=−2ΦT(y−Φx^)=0\frac{\partial J(\hat{x})}{\partial \hat{x}} = -2\Phi^T(y - \Phi \hat{x}) = 0x^J(x^)=2ΦT(yΦx^)=0

将方程重新排列,得到正规方程:

ΦTΦx^=ΦTy\Phi^T\Phi \hat{x} = \Phi^T yΦTΦx^=ΦTy

解这个线性方程组,我们可以得到参数向量 x^\hat{x}x^ 的无偏估计。

接下来,我们可以计算 Fisher 信息矩阵。根据最小二乘估计的性质,估计的协方差矩阵可以通过以下公式计算:

Cov(x^)=σ2(ΦTΦ)−1Cov(\hat{x}) = \sigma^2(\Phi^T\Phi)^{-1}Cov(x^)=σ2(ΦTΦ)1

其中,σ2\sigma^2σ2 是误差方差。

Fisher 信息矩阵是协方差矩阵的逆矩阵,因此可以得到:

I(x^)=(ΦTΦ)−1I(\hat{x}) = (\Phi^T\Phi)^{-1}I(x^)=(ΦTΦ)1

这就是通过最小二乘估计得到的参数向量 x^\hat{x}x^ 的 Fisher 信息矩阵。

需要注意的是,上述推导中假设误差向量 www 是满足独立同分布的高斯分布。如果误差具有其他分布或

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值