数据样本中心化:
1、对一维随机变量xxx,有n个观测样本{x1,x2,⋯ ,xn}\{ x^1,x^2,\cdots,x^n\}{x1,x2,⋯,xn},其样本均值(期望)可定义为:
μx=E(x)=1n∑i=0nxi\mu_x={E}\left(x\right)=\frac1n\sum_{i=0}^nx^iμx=E(x)=n1i=0∑nxi这样,中心化操作后的新样本为:zi=xi−μxz^{i}=x^i-\mu_xzi=xi−μx,并且∑inzi=0\sum_i^nz^i=0∑inzi=0
2、对于m维随机变量(特征、属性),定义随机向量:
x=[x1x2⋮xm],x∈Rm,这里xi为第i个随机变量
\pmb x=\begin{bmatrix}
x_1 \\
x_2 \\
\vdots\\
x_m \\
\end{bmatrix}
,\pmb x \in R^m,这里x_i 为第i个随机变量
xxx=⎣⎢⎢⎢⎡x1x2⋮xm⎦⎥⎥⎥⎤,xxx∈Rm,这里xi为第i个随机变量这里,再对m个随机变量的n个观测样本{xi∈Rm∣i=1,2,⋯ ,n}\{\pmb x^i\in R^m|i=1,2,\cdots,n\}{xxxi∈Rm∣i=1,2,⋯,n} 定义样本矩阵:
X=[x1x2⋯xn]=[x11x12⋯x1nx21x22⋯x2n⋮⋮⋱⋮xm1xm2⋯xmn],X∈Rm×nX=\begin{bmatrix}
\pmb x^1 & \pmb x^2&\cdots & \pmb x^n
\end{bmatrix}=
\begin{bmatrix}
x_1^1&x_1^2&\cdots&x_1^n\\
x_2^1&x_2^2&\cdots&x_2^n\\
\vdots&\vdots&\ddots&\vdots&\\
x_m^1&x_m^2&\cdots&x_m^n
\end{bmatrix}
,X \in R^{m\times n}
X=[xxx1xxx2⋯xxxn]=⎣⎢⎢⎢⎡x11x21⋮xm1x12x22⋮xm2⋯⋯⋱⋯x1nx2n⋮xmn⎦⎥⎥⎥⎤,X∈Rm×n
xjix^i_jxji表示第iii个样本在第jjj个随机变量(特征、属性)上的取值。 这样,定义均值向量:
μx=E(x)=[E(x1)E(x2)⋮E(xm)]=1n[∑inx1i∑inx2i⋮∑inxmi]=[μx1μx2⋮μxm]
\pmb {\mu_x}=E(\pmb x)=\begin{bmatrix}
E(x_1) \\
E(x_2 ) \\
\vdots\\
E( x_m) \\
\end{bmatrix} =\frac 1n\begin{bmatrix}
\sum_i^nx_1^i\\
\sum_i^nx_2^i \\
\vdots\\
\sum_i^nx_m^i \\
\end{bmatrix}=
\begin{bmatrix}
\mu_{x_1} \\
\mu_{x_2} \\
\vdots\\
\mu_{x_m} \\
\end{bmatrix}
μxμxμx=E(xxx)=⎣⎢⎢⎢⎡E(x1)E(x2)⋮E(xm)⎦⎥⎥⎥⎤=n1⎣⎢⎢⎢⎡∑inx1i∑inx2i⋮∑inxmi⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡μx1μx2⋮μxm⎦⎥⎥⎥⎤
中心化操作后新样本矩阵为:
Z=[z1z2⋯zn]=[x1−μxx2−μx⋯xn−μx]Z=\begin{bmatrix}
\pmb z^1 & \pmb z^2&\cdots & \pmb z^n
\end{bmatrix}=
\begin{bmatrix}
\pmb x^1-\pmb{ \mu_ x}& \pmb x^2-\pmb{ \mu_ x}&\cdots &\pmb x^n-\pmb{ \mu_ x}&
\end{bmatrix}
Z=[zzz1zzz2⋯zzzn]=[xxx1−μxμxμxxxx2−μxμxμx⋯xxxn−μxμxμx]然后有∑inzi=0\sum_i^n\pmb z^i=\pmb 0∑inzzzi=000
样本协方差矩阵
1、对于两个一维随机变量xxx和yyy的协方差可定义为:
E[(x−μx)(y−μy)]=1n−1∑in(xi−μx)(yi−μy)E[(x-\mu _x)(y-\mu_y)]=\frac 1{n-1}\sum_i^n (x_i-\mu_x)(y_i-\mu_y)E[(x−μx)(y−μy)]=n−11i∑n(xi−μx)(yi−μy)若样本已提前中心化,即新样本zi=xi−μxz^{i}=x^i-\mu_xzi=xi−μx,ui=xi−μyu^{i}=x^i-\mu_yui=xi−μy并且∑inzi=0\sum_i^nz^i=0∑inzi=0,∑inui=0\sum_i^n u^i=0∑inui=0,带入上式得:
E[(x−μx)(y−μy)]=1n−1∑in(xi−μx)(yi−μy)=1n−1∑inziuiE[(x-\mu _x)(y-\mu_y)]=\frac 1{n-1}\sum_i^n (x_i-\mu_x)(y_i-\mu_y)=\frac 1 {n-1}\sum_i^nz^iu^iE[(x−μx)(y−μy)]=n−11i∑n(xi−μx)(yi−μy)=n−11i∑nziui
2、对于多维随机向量x\pmb xxxx的自协方差矩阵(通常机器学习里提到的样本协方差矩阵),它是根据向量外积定义的:
E[(x−μx)(x−μx)T]=1n−1∑in(xi−μx)(xi−μx)TE[(\pmb x-\pmb{\mu_x})(\pmb x-\pmb{\mu_x})^T]=\frac 1{n-1}\sum_i^n(\pmb x^i-\pmb{\mu_x})(\pmb x^i-\pmb{\mu_x})^TE[(xxx−μxμxμx)(xxx−μxμxμx)T]=n−11i∑n(xxxi−μxμxμx)(xxxi−μxμxμx)T同理若样本已中心化,则
E[(x−μx)(x−μx)T]=1n−1∑in(xi−μx)(xi−μx)T=1n−1∑inzi(zi)T=1n−1ZZTE[(\pmb x-\pmb{\mu_x})(\pmb x-\pmb{\mu_x})^T]=\frac 1{n-1}\sum_i^n(\pmb x^i-\pmb{\mu_x})(\pmb x^i-\pmb{\mu_x})^T=\frac 1{n-1}\sum_i^n\pmb z^i(\pmb z^i)^T=\frac 1{n-1}ZZ^TE[(xxx−μxμxμx)(xxx−μxμxμx)T]=n−11i∑n(xxxi−μxμxμx)(xxxi−μxμxμx)T=n−11i∑nzzzi(zzzi)T=n−11ZZT注:分块矩阵乘法可得
∑inzi(zi)T=[z1z2⋯zn][(z1)T(z2)T⋮(zn)T]=ZZT\sum_i^n\pmb z^i(\pmb z^i)^T=
\begin{bmatrix}
\pmb z^1&\pmb z^2&\cdots&\pmb z^n
\end{bmatrix}
\begin{bmatrix}
(\pmb z^1)^T \\
(\pmb z^2)^T \\
\vdots\\
( \pmb z^n)^T \\
\end{bmatrix}=ZZ^Ti∑nzzzi(zzzi)T=[zzz1zzz2⋯zzzn]⎣⎢⎢⎢⎡(zzz1)T(zzz2)T⋮(zzzn)T⎦⎥⎥⎥⎤=ZZT
本文详细解析了数据样本中心化的概念及其在多维随机变量中的应用,同时介绍了样本协方差矩阵的计算方法,包括一维随机变量和多维随机向量的自协方差矩阵。
3万+

被折叠的 条评论
为什么被折叠?



