线性降维-笔记(1)

1 - 线性降维

样本在高维情形下会出现数据样本稀疏(因为样本不是均匀分布在每个维度表示的空间中),距离计算困难(欧式距离也不如人想象的那么有效),可视化困难,容易过拟合等问题。所以不论是机器学习,还是人类理解角度,高维都是个不喜欢的话题(当然对于低维样本线性不可分而上升到高维线性可分的情形并不是这里指的情况)。

因为基于大多人类观测和收集到的样本,与学习任务密切相关的也许只是某些低维分布。所以如果适当的降维,可以让样本在所需维度上达到更密集的分布,且距离计算问题也能缓解不少。
一般来说,想要获得低维子空间,最简单的是对原始高维空间进行线性变换。给定 d 维空间中的样本 X=(x1,x2,...,xN)Rd×N ,变换后得到 dd 维空间中的样本:

X=WTX

其中 WRd×d 是变换矩阵, XRd×N 是样本在新坐标空间中的表达。变换矩阵 W 可以看成是 d d 维基向量, xi=WTxi 是第 i 个样本(即 X 中的第 i 个列向量)与这 d 个基向量分别做内积而得到的 d 维特征列向量。 xi 同时也可以看成是第 i d 维的样本 xi 在新坐标系 { w1,w2,...,wd} 中的坐标向量,若 wi wj (ij) ,则新的坐标系是一个正交坐标系(我们通常的 x,y,z 就是一个正交坐标系),此时 W 为正交变换。显然,新空间中的特征是原空间中特征的线性组合。
基于线性变换来降维的方法称为线性降维方法,不同的线性降维方法基本上就是对低维子空间的性质有不同要求,对降维效果的评估,就是比较降维前后学习器的性能。其中主成分分析是一种无监督的线性降维方法,线性判别分析(LDA)是一种有监督线性降维方法。

2 - PCA

PCA是一种降维方法,其可以用来1)可视化;2)预处理;3)建模;4)压缩。
假设有 N 个样本 {xi} ,其中每个样本都是 d 维: xiRd 。我们的目标就是用更低维的样本表示 { xi} 来代替这些高维样本,其中低维样本维度为 d d<d
这可以看成是一个线性变换的形式:

x=Wx+b=i=1dwixi+b(2.1)

其中 W 是一个 d×d 的变换矩阵; xi 为一个低维样本表示的列向量, wi 为矩阵 W 的第 i 个列向量。矩阵 W 同样可以看成是 d 个基向量即 W=[w1,...,wd] 。如果假定样本获取过程中会混入高斯噪音,那么该模型就是一个线性回归模型了,只是这里 x 是一个未知的线性参数。
为了学习这个模型,对该模型建立目标函数,这里采用最小二乘方法:
argminW,b,xii||xi(Wxi+b)||2subjecttoWTW=I(2.2)

这里的限制使得求得的变换矩阵式一个正交矩阵,即等同于:
wTiwj={ 10i=jij

其中 x 所在空间的坐标系为潜在坐标系。具体过程如下:
1)先计算原有样本矩阵基于样本的均值向量:
b=1Nixi

2):计算原有样本矩阵中心化后的协方差均值矩阵:
K=1Ni(xib)(xib)T

3):对上述矩阵进行矩阵分解,并计算其特征值和特征向量:
K=VΛVT

其中 Λ 是由特征值组成的对角矩阵 Λ=diag(λ1,...λd) ; V 是对应特征值的特征向量,且该矩阵是正交矩阵即, V=[V1,...Vd] VTV=I
对特征值矩阵进行从大到小排序,选取足够多精度的特征值(即丢弃特征值较小的)
4):用保留的特征值对应的特征向量组成正交矩阵 W=[V1,...Vd]
5):从而新的样本为 xi=WT(xib) , i1,2,...,N

2.1 为什么选取特征值较大的,而不是较小的

假设投影后空间的坐标系为 W={ w1,w2,w3,...wd} ,且其两两正交,且原始样本已经进行了中心化,即均值为0。原始样本 { xi} 在新空间中投影为 { xi} ,且 xij=wTjxi ,是 { xi} 在低维坐标系下第 j 维的坐标值。以此重构得到 x^i=Wxi=dj=1xijwj
基于整个训练集,原样本点 xi 与基于新空间样本点重构的样本点 x^i 之间距离为:

i=1Nj=1dxijwjxi
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值