机器学习导论(张志华):主元分析

本文深入探讨了主成分分析(PCA)的基本概念及其在无监督学习中的应用,包括PCA的数学定义、如何通过正交变换实现数据降维,以及PCA在样本主成分分析中的实践方法。此外,还介绍了非监督学习的其他关键方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

这个笔记是北大那位老师课程的学习笔记,讲的概念浅显易懂,非常有利于我们掌握基本的概念,从而掌握相关的技术。

basic concepts

exp(−tz12)=∫exp(−tuz)dF(u)exp(-tz^{\frac{1}{2}}) =\int exp(-tuz) dF(u)exp(tz21)=exp(tuz)dF(u)
z=∣∣x∣∣2z=||x||^2z=x2
exp(−t∣∣x∣∣),exp(−t∣∣x∣∣).exp(-t||x||),exp(-t||x||).exp(tx),exp(tx).
The product of P.D is P.D
eul distance transformed into another space to get the distance.
∣∣ϕ(x)−ϕ(y)∣∣22||\phi(x)-\phi(y)||^2_2ϕ(x)ϕ(y)22
Part2 unsuperrised learning
CB dimensionlity reduction.

PCA(Principal Component Analysis)

Population PCA
Def. if x‾⊂Rpisarandomvector,withmean:uandcovariancematrixσ\overline x \subset R^p \quad is\quad a\quad random \quad vector, \quad with \quad mean:u \quad and \quad covariance \quad matrix \sigmaxRpisarandomvector,withmean:uandcovariancematrixσ
then the PCA is
x‾−>y‾=Ut(x−u)\overline x-> \overline y=U^t(x-u)x>y=Ut(xu)
when U is orthgonal.

Spectral Decompistion

Thm,
Ifx−>N(μ,σ)If x->N(\mu,\sigma)Ifx>N(μ,σ) Then,y N(0,n)y~N(0,n)y N(0,n)
(2)E(y0)=0,E(y_0)=0,E(y0)=0,
(3)Cov(Ym,Yi)=0fori!=jCov(Y_m,Y_i)=0 for i !=j Cov(Ym,Yi)=0fori!=j
(4)yisaorthangonaltransformxisuncorrelationbutotsqure.y \quad is\quad a \quad orthangonal \quad transform \quad x \quad is \quad uncorrelation \quad but \quad ot \quad squre. yisaorthangonaltransformxisuncorrelationbutotsqure.
(5)Var(Yi)=σiVar(Y_i)=\sigma_iVar(Yi)=σi

Sample Principal Component

LetX=[x‾1...x‾n]Tbean∗pLet X=[\overline x_1 ...\overline x_n]^T be\quad a \quad n*p LetX=[x1...xn]Tbeanp

sample data matrix

x‾=1n∑x=1nx‾i,\overline x=\frac{1}{n} \sum_{x=1}^n \overline x_i,x=n1x=1nxi,
S=1nXTHXS=\frac{1}{n}X^THXS=n1XTHX
H:In=1nInInH:I_n=\frac{1}{n}I_nI_nH:In=n1InIn
reduce the data to k-dimension ,you get the first k element.
keep most information,PCA.suppos.

SVD

U=eigenvectorof(AAT)U=eigenvectorof(AA^T)U=eigenvectorof(AAT)
D=AATD=\sqrt{AA^T}D=AAT
V=eigenvector(ATA)V=eigenvector(A^TA)V=eigenvector(ATA)

PCO(Principal Coordinate Analysis)

S=XTHXS=X^THXS=XTHX
power equal : HH=H
B=HXXTHB=HXX^THB=HXXTH
variance matrix
AB=BA
Non-zero eigenvector are equal.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值