
概率论
文章平均质量分 89
苍蓝儿
蓝天依旧,明眸如初
展开
-
概率论基础 - 9 - 中心极限定理
中心极限定理(Central Limit Theorem,CTL),是指概率论中讨论随机变量序列部分和分布渐近于正态分布的一类定理。。概述定理是数理统计学和误差分析的理论基础,指出了大量随机变量近似服从正态分布的条件。它是概率论中最重要的一类定理,有广泛的实际应用背景。在自然界与生产中,一些现象受到许多相互独立的随机因素的影响,如果每个因素所产生的影响都很微小时,总的影响可以看作是服从正态分布的。中心极限定理就是从数学上证明了这一现象。 ——百度百科中心极限定理(CLT)指出,如果样.原创 2022-01-28 10:55:04 · 1943 阅读 · 0 评论 -
概率论基础 - 8 - 大数定理
概率论历史上第一个极限定理属于伯努利,后人称之为“大数定律”。概率论中讨论随机变量序列的算术平均值向随机变量各数学期望的算术平均值收敛的定律。依概率收敛定义设Y1,Y2,…,Yn,…Y_1,Y_2, \dots ,Y_n, \dotsY1,Y2,…,Yn,… 是一个随机变量序列,aaa是一个常数。若对于任意正数$\varepsilon $有 :{%raw%}limn→∞P{∣Yn−a∣≤ε}=1\lim _{n \rightarrow \infty} P\left\{\l.原创 2021-08-21 15:57:51 · 729 阅读 · 0 评论 -
概率论基础 - 7 - 特征函数
特征函数是随机变量的分布的不同表示形式。概述一般而言,对于随机变量XXX的分布,大家习惯用概率密度函数来描述,虽然概率密度函数理解起来很直观,但是确实随机变量的分布还有另外的描述方式,比如特征函数。特征函数的本质是概率密度函数的泰勒展开每一个级数表示原始概率密度函数的一个特征如果两个分布的所有特征都相同,那我们就认为这是两个相同的分布矩是描述概率分布的重要特征,期望、方差等概念都是矩的特殊形态直觉上可以简单理解为:各阶矩相等 → 各个特征相等 → 分布相同.原创 2021-08-21 15:55:28 · 11301 阅读 · 0 评论 -
概率论基础 - 6 - 切比雪夫不等式
切比雪夫不等式可以使人们在随机变量X的分布未知的情况下,对事件$|X-\mu|<\varepsilon $ 概率作出估计。定义假设随机变量XXX具有期望E(X)=μE(X)=\muE(X)=μ, 方差 Var(X)=σ2Var(X)=\sigma^2Var(X)=σ2,则对于任意正数ε\varepsilonε ,有不等式成立:P{∣X−μ∣≥ε}≤σ2ε2\mathbb P\{|X-\mu| \geq \varepsilon\} \leq \frac{\sigma^{2}}{\var.原创 2021-08-13 23:42:15 · 10220 阅读 · 0 评论 -
概率论基础 - 5 - 马尔可夫不等式
马尔可夫不等式把概率关联到数学期望,给出了随机变量的累积分布函数一个宽泛但仍有用的界。定义马尔可夫不等式用于估计尾事件的概率上界。若随机变量XXX只取非负值,则∀a>0\forall a>0∀a>0有:P(X≥a)≤E(X)a\mathbb{P}(X \geq a) \leq \frac{\mathbb{E}(X)}{a}P(X≥a)≤aE(X)证明思路1放大概率,得到部分函数期望截断函数期望,二者相比较考虑 X≥aX\ge aX≥a的情况 → .原创 2021-08-13 23:41:35 · 2613 阅读 · 0 评论 -
概率论基础 - 4 - 协方差、相关系数、协方差矩阵
本文介绍协方差。协方差协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。 —— 百度百科定义在概率论和统计学中,协方差用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。期望值分别为E[X.原创 2021-08-13 23:40:48 · 958 阅读 · 0 评论 -
概率论基础 - 3 - 方差
本文介绍方差。方差定义数学期望(mean)(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 ——百度百科对随机变量XXX,若E[(X−E[X])2]\mathbb{E}\left[(X-\mathbb{E}[X])^{2}\right]E[(X−E[X])2]存在,则称它为XXX的方差,记作 Var[X]Var[X]Var[X]。XXX的标准差为方差的开平方:σ=Var[X]\sigma=\sqrt{\op.原创 2021-08-13 23:40:08 · 1961 阅读 · 0 评论 -
概率论基础 - 1 - 基础概念
本系列记录概率论基础知识,本文介绍最基本的概率论概念。概率与分布条件概率与独立事件条件概率已知AAA事件发生的条件下BBB发生的概率,记作P(B∣A)P(B \mid A)P(B∣A) ,它等于事件ABABAB的概率相对于事件AAA的概率,即:P(B∣A)=P(AB)P(A)P(B \mid A)=\frac{P(A B)}{P(A)}P(B∣A)=P(A)P(AB)其中 P(A)>0{P(A)} > 0P(A)>0条件概率分布的链式法则对于nnn个随.原创 2021-08-13 23:39:14 · 237 阅读 · 0 评论 -
概率论基础 - 2 - 期望
本文介绍期望。期望定义数学期望(mean)(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 ——百度百科期望描述了随机变量的平均情况,衡量了随机变量 的均值。它是概率分布的泛函(函数的函数)。计算方法离散型离散随机变量XXX的期望:E[X]=∑i=1∞xipi\mathbb{E}[X]=\sum_{i=1}^{\infty} x_{i} p_{i}E[X]=i=1∑∞xipi若右侧级.原创 2021-08-13 23:36:55 · 3361 阅读 · 0 评论 -
马氏距离 (马哈拉诺比斯距离) (Mahalanobis distance)
马氏距离(Mahalanobis distance)是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示点与一个分布之间的距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是,它考虑到各种特性之间的联系,本文介绍马氏距离相关内容。欧氏距离的缺点距离度量在各个学科中有着广泛用途,当数据表示为向量x→=(x1,x2,⋯ ,xn)T\overrightarrow{\mathbf{x} }=\left(x_{1}, x_{2}, \cdots, x_{n}\r.原创 2021-03-27 10:57:23 · 4416 阅读 · 0 评论 -
正交-不相关-独立
本文介绍随机变量中正交、不相关、独立的区别和联系。概述三者均是描述随机变量之间关系的概念,看似都可以表示两个随机变量的疏远关系,但定义和约束均有不同。考察mmm维随机变量X,YX,YX,Y之间的关系。定义正交定义R(X,Y)=E[XY]R(X, Y) = E[XY]R(X,Y)=E[XY]为相关函数:若R(X,Y)=0R(X, Y)=0R(X,Y)=0,称X,YX,YX,Y正交不相关定义 E[XY]=E[X]E[Y]E[XY] = E[X]E[Y]E[XY]=E[X]E[Y.原创 2021-03-27 10:53:34 · 6777 阅读 · 0 评论