一、中心极限定理
1.1 独立同分布的中心极限定理
1.1.1 定理
设 X 1 , X 2 , . . . , X n 为 相 互 独 立 、 服 从 同 一 分 布 的 随 机 变 量 序 列 , 且 E ( X i ) = μ , D ( X i ) = σ 2 ≠ 0 ( i = 1 , 2 , . . . n ) , 则 对 于 任 意 x , 有 : 设X_1,X_2,...,X_n为相互独立、服从同一分布的随机变量序列,且E(X_i)=\mu,D(X_i)=\sigma^2\ne0(i=1,2,...n),则对于任意x,有: 设X1,X2,...,Xn为相互独立、服从同一分布的随机变量序列,且E(Xi)=μ,D(Xi)=σ2=0(i=1,2,...n),则对于任意x,有:
lim n → ∞ P { ∑ i = 1 n X i − n μ n σ ≤ x } = ∫ − ∞ x 1 2 π e − t 2 2 d t = Φ ( x ) ( 1.1 ) \lim_{n\to\infty}P\begin{Bmatrix}{\sum_{i=1}^nX_i-n\mu\over\sqrt{n}\sigma}\le x\end{Bmatrix}=\int_{-\infty}^x{1\over\sqrt{2\pi}}e^{-{t^2\over2}}dt=\Phi(x)\quad\quad\quad\quad\quad\quad (1.1) limn→∞P{ nσ∑i=1nXi−nμ≤x}=∫−∞x2π1e−2t2dt=Φ(x)(1.1)
该定理通常被称为林德伯格-莱维(Lindeberg-Levy)定理。
来看下上面定理的含义:
若记:
Y n = ∑ i = 1 n X i − n μ n σ Y_n={\sum_{i=1}^nX_i-n\mu\over\sqrt{n}\sigma} Yn=nσ∑i=1nXi−nμ
记 F Y n ( x ) F_{Y_n}(x) FYn(x)为 Y n Y_n Yn的分布函数,则1.1式可以写成:
l i m n → ∞ F Y n ( x ) = Φ ( x ) lim_{n\to\infty}F_{Y_n}(x)=\Phi(x) limn→∞FYn(x)=Φ(x)
这表明,当充分大时, Y n Y_n Yn近似服从正态分布 N ( 0 , 1 ) N(0,1) N(0,1),即:
∑ i = 1 n X i − n μ n σ ∽ N ( 0 , 1 ) {\sum_{i=1}^nX_i-n\mu\over\sqrt{n}\sigma}\backsim N(0,1) nσ∑i=1nXi−nμ∽N(
统计学三大定律解析

本文深入探讨统计学中的中心极限定理、马尔科夫不等式与切比雪夫不等式,以及大数定理。详细讲解了这些定律的应用场景及数学证明,为理解随机变量序列的统计特性提供了坚实的理论基础。
最低0.47元/天 解锁文章
8575

被折叠的 条评论
为什么被折叠?



