统计推断:样本估计与贝叶斯推断详解
1. 样本估计量
在统计推断中,样本估计量是非常重要的概念。对于一个参数 $\theta$ 的估计量 $h(X_1, X_2, \cdots, X_n)$,其中 $n$ 是数据样本的大小。偏差 $g(\theta, n)$ 用于衡量估计量与真实参数的偏离程度。如果 $g(\theta, n) \neq 0$,则 $h$ 被称为 $\theta$ 的有偏估计量;若 $\forall\theta \in \Omega$,$\lim_{n \to \infty} g(\theta, n) \to 0$,那么 $h$ 是 $\theta$ 的渐近无偏估计量。
当 $h(X_1, X_2, \cdots, X_n)$ 是 $\theta$ 的有偏估计量时,$h$ 的方差 $V(h)$ 不是衡量 $h$ 值围绕 $\theta$ 集中程度的合适指标,此时更倾向于使用均方误差(MSE)。
均方误差的定义如下:
- 定义 6.8 :估计量 $h(X_1, X_2, \cdots, X_n)$ 的均方误差定义为 $MSE(h(X_1, X_2, \cdots, X_n)) = E[(h(X_1, X_2, \cdots, X_n) - \theta)^2] = E(h(X_1, X_2, \cdots, X_n)) + [g(\theta, n)]^2$。对于无偏估计量 $h$,有 $MSE(h) = V(h)$。
比较两个估计量的效率时,有如下定义:
- 定义 6.9 :设 $h_1(X_1, X_2, \cdots, X_n)$ 和 $h_2(
超级会员免费看
订阅专栏 解锁全文
1180

被折叠的 条评论
为什么被折叠?



