概率论知识回顾(二十一)
重点:大数定律
知识回顾用于巩固知识和查漏补缺。知识回顾步骤:
- 查看知识回顾中的问题,尝试自己解答
- 自己解答不出来的可以查看下面的知识解答巩固知识。
- 对知识解答有疑问的,说明有关这一点的知识或者公式没有理解透彻或者没有记住,要重新翻看书籍。
知识回顾
- 什么是切比雪夫(Chebyshev)不等式?
- 什么是大数定律?
- 什么是切比雪夫大数定律?
- 什么是贝努利(Bernoulli)大数定律?
- 什么是辛钦(Kinchin)大数定律?
知识解答
- 什么是切比雪夫(Chebyshev)不等式?
- 假设随机变量 XXX 具有期望 E(X)=μE(X) = \muE(X)=μ, 方差 D(X)=σ2D(X) = \sigma^2D(X)=σ2, 那么对于任意的正数 ϵ\epsilonϵ , 不等式 P{∣X−μ∣≥ϵ}≤σ2ϵ2或P{∣X−μ∣<ϵ}≥1−σ2ϵ2P\{|X-\mu| \ge \epsilon\} \le \frac{\sigma^2}{\epsilon^2} 或 P\{|X-\mu|<\epsilon\} \ge 1- \frac{\sigma^2}{\epsilon^2}P{∣X−μ∣≥ϵ}≤ϵ2σ2或P{∣X−μ∣<ϵ}≥1−ϵ2σ2
- 其实切比雪夫不等式想表达的是随机变量和期望的偏差符合统计规律,即偏差越大的范围的值占整体样本的概率就越小。其实就是整体的样本与期望的偏差不会太大。
- 什么是大数定律?
- 设 {Xn}\{X_n\}{Xn} 是随机变量序列,记 Xˉ=1n∑k=1nXk\bar{X} = \frac{1}{n}\sum \limits_{k=1}^nX_kXˉ=n1k=1∑nXk 且数学期望 E(Xn)E(X_n)E(Xn) 存在,如果 ∀ϵ>0\forall \epsilon > 0∀ϵ>0, 都有 limn→+∞P{∣Xˉ−EXˉ∣≥ϵ}=0\lim \limits_{n \rightarrow + \infty} P\{|\bar{X} - E\bar{X}| \ge \epsilon \} = 0n→+∞limP{∣Xˉ−EXˉ∣≥ϵ}=0 就称随机变量序列服从大数定律。记作 Xˉ−EXˉ⟶P0 或 Xˉ⟶PEXˉ\bar X - E{\bar X} \overset{P}\longrightarrow0 \ 或 \ \bar X \overset{P} \longrightarrow E\bar XXˉ−EXˉ⟶P0 或 Xˉ⟶PEXˉ
- 也就是说,如果序列的平均值收敛于它的期望,就说明序列 {Xn}\{X_n\}{Xn} 服从大数定律。
- 什么是切比雪夫大数定律?
- 若 {Xn}\{X_n\}{Xn} 为 相互独立 的随机变量序列,且对所有的自然数n,EXn=μnEX_n = \mu_nEXn=μn 存在,并且 DXn=σ2≤c<∞DX_n = \sigma^2 \le c < \inftyDXn=σ2≤c<∞。(方差一致有界)。那么 Xn{X_n}Xn 服从大数定律。
- 什么是贝努利(Bernoulli)大数定律?
- 设 nAn_AnA 是n次独立重复试验中事件A发生的次数,p 是 事件 A 在每次实验中发生的概率,对于任意的正数 ϵ\epsilonϵ 有 limn→+∞P{∣nAn−p∣<ϵ}=1\lim \limits_{n \rightarrow + \infty} P\{|\frac{n_A}{n} - p| < \epsilon \} = 1n→+∞limP{∣nnA−p∣<ϵ}=1, 也就是说 nAn⟶Pp\frac{n_A}{n} \overset{P}\longrightarrow pnnA⟶Pp。其实就是在大量试验下,频率接近于概率的表示。
- 什么是辛钦(Kinchin)大数定律?
- 设随机变量 X1,X2,...,XnX_1,X_2,...,X_nX1,X2,...,Xn 相互独立,服从同一分布, 且具有其数学期望 E(Xk)=μE(X_k) = \muE(Xk)=μ, 则序列 Xˉ⟶Pμ\bar X \overset{P}\longrightarrow \muXˉ⟶Pμ。
- 很显然,贝努利大数定律是辛钦大数定律的一个特例,因为我们知道n重贝努利试验可以看成 n 次 (0−1)(0-1)(0−1) 分布,因此 Xk=pX_k = pXk=p, 因此就有 Xˉ=1n∑k=1nXk=nAn⟶Pp\bar X = \frac{1}{n}\sum_{k=1}^{n}X_k = \frac{n_A}{n} \overset{P}\longrightarrow pXˉ=n1∑k=1nXk=nnA⟶Pp