【统计学习方法】高斯分布公式推导

本文深入探讨了统计学中的基本概念,包括扇形计算公式、二重积分的极坐标表示,以及一阶矩和二阶矩的概念。通过具体实例解释了期望值和中心矩的含义,进一步讲解了高斯分布的特性,包括其概率密度函数的积分、期望值的计算,以及如何利用极坐标转换简化计算过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 基本概念准备

1.1 扇形计算公式

\Delta \sigma = \frac{\Delta \theta r^2}{2}

1.2 二重积分用极坐标表示

\Delta \sigma_k =\frac{(r+\Delta r)^2 \Delta \theta - r^2\Delta \theta}{2} = \frac{r \Delta r \Delta \theta+\Delta r^2 \Delta \theta}{2} \approx \frac{r \Delta r \Delta \theta}{2}  (略去高阶无穷小)

所以 d\sigma = rdrd\theta

1.3 一阶矩和二阶矩

一阶矩就是期望值,换句话说就是平均数(离散随机变量很好理解,连续的可以类比一下)。举例:xy坐标系中,x取大于零的整数,y1, y2, ...,yn 对应x=1, 2,..., n的值,现在我要对y求期望,就是所有y累加除以n,也就是y的均值。

此时y的均值我可以在坐标系中画一条线,我会发现所有的点都在这条线的两边。如果是中心矩我就会用每个值减去均值z=yn-y均作为一个新的序列z1, z2, ..., zn,再对z求期望,这时我会发现均值为零(即在坐标轴y上)。一阶矩只有一阶非中心矩,因为一阶中心矩永远等于零。

二阶(非中心)矩就是对变量的平方求期望,二阶中心矩就是对随机变量与均值(期望)的差的平方求期望。为什么要用平方,因为如果序列中有负数就会产生较大波动,而平方运算就好像对序列添加了绝对值,这样更能体现偏离均值的范围。

2 高斯分布公式

2.1  高斯概率密度函数的的积分

令 I = \int^{+\infty}_{-\infty} e^{\frac{-x ^2}{2\sigma^2}}dx

I^2 = \int_{-\infty }^{+\infty } e^{-\frac{x ^2+y^2}{2\sigma^2}}dxdy

用极坐标表示:

\left \{\begin { matrix} x=rcos\theta \\y =rsin\theta \\ \end{matrix}\right.

则:

I^2 =\int ^{2\pi}_{0} \int^{+\infty}_{0}e^-{\frac{r^2}{2\sigma^2}}rdrd\theta = 2\pi\int^{+\infty}_{0}e^{-\frac{u}{2\sigma^2}}\frac{1}{2}du = \pi e^{-\frac{u}{2 \sigma^2}}(-2\sigma^2)|^{\infty}_{0}

 

I^2 = 2\pi\sigma^2

 

所以:

\int^{+\infty }_{-\infty} N(x | \mu, \sigma) dx = \frac{1}{2\pi \sigma^2} 2\pi \sigma^2 = 1

 

2.2 高斯分布的期望

E(x) = \int^{+\infty}_{-\infty} x N(x|\mu,\sigma)dx = \int^{+\infty}_{-\infty} x \frac{1}{\sqrt{2\pi}\sigma}e^{\frac{(\mu -x)^2}{2\pi \sigma^2}}dx

x = x -\mu

则:

E(x) = \int^{+\infty}_{-\infty} x \frac{1}{\sqrt{2\pi}\sigma}e^{\frac{(x)^2}{2\pi \sigma^2}}dx + \int^{+\infty}_{-\infty} \mu \frac{1}{\sqrt{2\pi}\sigma}e^{\frac{(x)^2}{2\pi \sigma^2}}dx

这里\int^{+\infty}_{-\infty} x \frac{1}{\sqrt{2\pi}\sigma}e^{\frac{(x)^2}{2\pi \sigma^2}}dx为奇函数,所以积分结果为0

所以:

E(x) =\mu \int^{+\infty}_{-\infty} \frac{1}{\sqrt{2\pi}\sigma}e^{\frac{(x)^2}{2\pi \sigma^2}}dx = \mu

 

 

这里

参考:

高斯分布期望的推导

高斯分布归一化、期望、二阶矩、方差推导证明

 

 

 

 

 

### 关于相关滤波学习中公式推导的详细过程 #### 非线性系统的处理方法 对于非线性和非高斯分布的动态系统,传统的卡尔曼滤波不再适用,因为这些情况下的后验概率和条件概率不遵循简单的高斯分布形式[^1]。为了应对这一挑战,研究者引入了基于蒙特卡罗模拟的方法——即粒子滤波。 #### 粒子滤波的核心概念 粒子滤波通过一系列随机样本(称为“粒子”)来近似表示状态的概率密度函数。这种方法能够灵活适应各种复杂的分布形态,而不仅仅局限于高斯分布。具体来说,在每次迭代过程中: - **预测阶段**:根据上一时刻的状态估计以及运动模型生成新的粒子集合; - **更新阶段**:利用最新的观测数据调整各粒子权重,并据此重新采样得到更贴近真实状态的新一代粒子群; 这种机制使得即使面对高度非线性的转换关系或是异常值较多的数据集时也能保持良好的性能表现。 #### 测量噪声假设 值得注意的是,在构建具体的粒子滤波器时通常会假定测量误差服从某个特定类型的统计特性。例如,在许多应用场景下会选择均值为零、协方差矩阵为\(R\) 的多维正态分布作为测距传感器读数偏差的理想化描述\[Z_k \sim N(z_k, R)\][^2]。 ```python import numpy as np def generate_particles(num_particles, mean, cov): """Generate a set of particles from a multivariate normal distribution.""" return np.random.multivariate_normal(mean, cov, num_particles) particles = generate_particles(1000, [0], [[1]]) # Example with scalar values and unit variance. ``` 上述代码展示了如何依据给定参数创建一组服从指定多元正态分布规律变化趋势的虚拟个体实例用于后续计算分析之中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值