关于样本协方差矩阵的简单推导

本文详细解析了数据样本中心化的概念及其在多维随机变量中的应用,同时介绍了样本协方差矩阵的计算方法,包括一维随机变量和多维随机向量的自协方差矩阵。

数据样本中心化:

1、对一维随机变量xxx,有n个观测样本{x1,x2,⋯ ,xn}\{ x^1,x^2,\cdots,x^n\}{x1,x2,,xn},其样本均值(期望)可定义为:
μx=E(x)=1n∑i=0nxi\mu_x={E}\left(x\right)=\frac1n\sum_{i=0}^nx^iμx=E(x)=n1i=0nxi这样,中心化操作后的新样本为:zi=xi−μxz^{i}=x^i-\mu_xzi=xiμx,并且∑inzi=0\sum_i^nz^i=0inzi=0
2、对于m维随机变量(特征、属性),定义随机向量
x=[x1x2⋮xm],x∈Rm,这里xi为第i个随机变量 \pmb x=\begin{bmatrix} x_1 \\ x_2 \\ \vdots\\ x_m \\ \end{bmatrix} ,\pmb x \in R^m,这里x_i 为第i个随机变量 xxx=x1x2xm,xxxRm,xii这里,再对m个随机变量的n个观测样本{xi∈Rm∣i=1,2,⋯ ,n}\{\pmb x^i\in R^m|i=1,2,\cdots,n\}{xxxiRmi=1,2,,n} 定义样本矩阵:
X=[x1x2⋯xn]=[x11x12⋯x1nx21x22⋯x2n⋮⋮⋱⋮xm1xm2⋯xmn],X∈Rm×nX=\begin{bmatrix} \pmb x^1 & \pmb x^2&\cdots & \pmb x^n \end{bmatrix}= \begin{bmatrix} x_1^1&x_1^2&\cdots&x_1^n\\ x_2^1&x_2^2&\cdots&x_2^n\\ \vdots&\vdots&\ddots&\vdots&\\ x_m^1&x_m^2&\cdots&x_m^n \end{bmatrix} ,X \in R^{m\times n} X=[xxx1xxx2xxxn]=x11x21xm1x12x22xm2x1nx2nxmn,XRm×n
xjix^i_jxji表示第iii个样本在第jjj个随机变量(特征、属性)上的取值。 这样,定义均值向量
μx=E(x)=[E(x1)E(x2)⋮E(xm)]=1n[∑inx1i∑inx2i⋮∑inxmi]=[μx1μx2⋮μxm] \pmb {\mu_x}=E(\pmb x)=\begin{bmatrix} E(x_1) \\ E(x_2 ) \\ \vdots\\ E( x_m) \\ \end{bmatrix} =\frac 1n\begin{bmatrix} \sum_i^nx_1^i\\ \sum_i^nx_2^i \\ \vdots\\ \sum_i^nx_m^i \\ \end{bmatrix}= \begin{bmatrix} \mu_{x_1} \\ \mu_{x_2} \\ \vdots\\ \mu_{x_m} \\ \end{bmatrix} μxμxμx=E(xxx)=E(x1)E(x2)E(xm)=n1inx1iinx2iinxmi=μx1μx2μxm
中心化操作后新样本矩阵为:
Z=[z1z2⋯zn]=[x1−μxx2−μx⋯xn−μx]Z=\begin{bmatrix} \pmb z^1 & \pmb z^2&\cdots & \pmb z^n \end{bmatrix}= \begin{bmatrix} \pmb x^1-\pmb{ \mu_ x}& \pmb x^2-\pmb{ \mu_ x}&\cdots &\pmb x^n-\pmb{ \mu_ x}& \end{bmatrix} Z=[zzz1zzz2zzzn]=[xxx1μxμxμxxxx2μxμxμxxxxnμxμxμx]然后有∑inzi=0\sum_i^n\pmb z^i=\pmb 0inzzzi=000

样本协方差矩阵

1、对于两个一维随机变量xxxyyy的协方差可定义为:
E[(x−μx)(y−μy)]=1n−1∑in(xi−μx)(yi−μy)E[(x-\mu _x)(y-\mu_y)]=\frac 1{n-1}\sum_i^n (x_i-\mu_x)(y_i-\mu_y)E[(xμx)(yμy)]=n11in(xiμx)(yiμy)若样本已提前中心化,即新样本zi=xi−μxz^{i}=x^i-\mu_xzi=xiμxui=xi−μyu^{i}=x^i-\mu_yui=xiμy并且∑inzi=0\sum_i^nz^i=0inzi=0,∑inui=0\sum_i^n u^i=0inui=0,带入上式得:
E[(x−μx)(y−μy)]=1n−1∑in(xi−μx)(yi−μy)=1n−1∑inziuiE[(x-\mu _x)(y-\mu_y)]=\frac 1{n-1}\sum_i^n (x_i-\mu_x)(y_i-\mu_y)=\frac 1 {n-1}\sum_i^nz^iu^iE[(xμx)(yμy)]=n11in(xiμx)(yiμy)=n11inziui
2、对于多维随机向量x\pmb xxxx自协方差矩阵(通常机器学习里提到的样本协方差矩阵),它是根据向量外积定义的:
E[(x−μx)(x−μx)T]=1n−1∑in(xi−μx)(xi−μx)TE[(\pmb x-\pmb{\mu_x})(\pmb x-\pmb{\mu_x})^T]=\frac 1{n-1}\sum_i^n(\pmb x^i-\pmb{\mu_x})(\pmb x^i-\pmb{\mu_x})^TE[(xxxμxμxμx)(xxxμxμxμx)T]=n11in(xxxiμxμxμx)(xxxiμxμxμx)T同理若样本已中心化,则
E[(x−μx)(x−μx)T]=1n−1∑in(xi−μx)(xi−μx)T=1n−1∑inzi(zi)T=1n−1ZZTE[(\pmb x-\pmb{\mu_x})(\pmb x-\pmb{\mu_x})^T]=\frac 1{n-1}\sum_i^n(\pmb x^i-\pmb{\mu_x})(\pmb x^i-\pmb{\mu_x})^T=\frac 1{n-1}\sum_i^n\pmb z^i(\pmb z^i)^T=\frac 1{n-1}ZZ^TE[(xxxμxμxμx)(xxxμxμxμx)T]=n11in(xxxiμxμxμx)(xxxiμxμxμx)T=n11inzzzi(zzzi)T=n11ZZT注:分块矩阵乘法可得
∑inzi(zi)T=[z1z2⋯zn][(z1)T(z2)T⋮(zn)T]=ZZT\sum_i^n\pmb z^i(\pmb z^i)^T= \begin{bmatrix} \pmb z^1&\pmb z^2&\cdots&\pmb z^n \end{bmatrix} \begin{bmatrix} (\pmb z^1)^T \\ (\pmb z^2)^T \\ \vdots\\ ( \pmb z^n)^T \\ \end{bmatrix}=ZZ^Tinzzzi(zzzi)T=[zzz1zzz2zzzn](zzz1)T(zzz2)T(zzzn)T=ZZT

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值