Kernel PCA

本文深入探讨了KernelPCA的数学原理,介绍了如何通过特征映射将原始数据转换到高维特征空间,并利用核技巧进行主成分分析,实现了非线性数据的降维。

Kernel PCA

  将样本空间推广到一般情况,借助从样本空间到特征Hilbert空间的特征映射,解决样本空间本身没有内积的情况。设K:X×XC为核函数,W为特征Hilbert空间,Φ:XW为特征映射。对给定的核函数K,特征对(W,Φ)不具有唯一性(即PCA一文中对同一核函数的不同坐标表示),故在利用特征空间内积的同时要注意尽量得出只依赖核函数K的结论。稍后证明,在核矩阵关于最大谱的特征空间维数为1时,Kernel PCA的表示结果与特征对(样本空间坐标架)选取无关,此称kernel trick
  按照PCA的几何解释,我们在特征空间W中寻求样本点的特征{Φ(xi)}Ni=1W的一维流形拟合。得模型

argmaxuWu=1i=1nΦ~(xi),uW2,

其中Φ~(xi)=Φ(xi)1nnj=1Φ(xj)。记有界线性算子

T:WCn:u(Φ~(xi),uW)ni=1,

则问题转为

argmaxuWu=1TTu,uW.

谱分解与谱分解表示

  此时

T:CnW:(vi)ni=1i=1nvi¯¯¯Φ~(xi),

TT:WW:ui=1nu,Φ~(xi)WΦ~(xi).

  显然自伴随算子TTB00(W)B0(W),从而其有谱分解

TTu=i=1pλiu,uiWui,

其中pn{λi}pi=1R++为单调下降的正特征值,{ui}pi=1W为对应单位正交特征向量。
  将谱分解代回模型立得解u=u1,即span{u1}W上最佳拟合中心化后样本特征{Φ~(xi)}ni=1的一维子空间,亦即1nni=1Φ(xi)+span{u1}W上最佳拟合样本特征{Φ(xi)}ni=1的一维流形。
  此时任意xX在特征空间W中该一维流形上的表示为

Φ~(x),uW==i=1nu,Φ~(xi)WΦ~(xi),Φ~(x)Wi=1nu,Φ~(xi)WK~(xi,x),

其中第二部分

K~(xi,x)=K(xi,x)1nj=1nK(xi,xj)1nj=1nK(xj,x)+1n2j,k=1nK(xj,xk).

谱分解对应之SVD分解

  上式第一部分似乎与特征对选择有关,然此时由谱分解,有

i=1nuj,Φ~(xi)WΦ~(xi),ukW=λjδjk.

K[X]WΛ:=[K(xi,xj)]ni,j=1:=[Φ~(xi),uj]iNnjNp:=diag(λi)pi=1

则有

K[X]Λ=WW=WW.

  记U:=WΛ12, 则有

K[X]Ip=UΛU=UU,

此即谱分解所对应核矩阵的SVD分解。能看出U矩阵每一列为对应样本特征在该主方向上的分解系数。反之,核矩阵的任意SVD分解均能导出对应之谱分解。

SVD分解下之表示

  设核矩阵的SVD分解为

K[X]Ip=UΛU=UU,

此时任意xX在特征空间W中该一维流形上的表示为

xlabel=i=1nu,Φ~(xi)WK~(xi,x)=1λ1i=1n[U]i1¯¯¯¯¯¯¯K~(xi,x),

与特征对选取无关。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值