LDA PCA

本文介绍了线性判别式LDA和主成分分析PCA在特征降维中的作用。LDA旨在最大化类间距离和最小化类内方差,PCA则通过寻找数据最大方差的方向进行降维。文中还通过实例解释了PCA的中心化和求协方差矩阵的过程。
线性判别式

  LDA(线性判别式)思想:给定训练集样例,设法将样例投影到一条直线上,使得同类样例的投影点都尽可能的接近,异类样例的投影点都尽可能的远离。也就是—”投影后类内方差最小,类间方差最大”。
这里写图片描述
  欲使同类样例的投影点尽可能的近,可以让同类的样例投影点的协方差尽可能的小。
  欲使异类样例的投影点尽可能的远,可以让异类的样例投影的中心距离尽可能的大。
  由于是两类数据,因此我们只需要将数据投影到一条直线上即可。假设我们的投影直线是向量w,则对任意一个样本本xi,它在直线w的投影为wTxi,对于我们的两个类别的中心点μ0,μ1,在在直线w的投影为wTμ0wTμ1。由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化||wTμ0wTμ1||22,同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差wTΣ0wwTΣ1w尽可能的小,即最小化wTΣ0w+wTΣ1w。综上所述,我们的优化目标为:

argmaxwJ(w)=||wTμ0wTμ1||22wTΣ0w+wTΣ1w=wT(μ0μ1)(μ0μ1)TwwT(Σ0+Σ1)w

  我们一般定义类内散度矩阵Sw为:

Sw=Σ0+Σ1=xX0(xμ0)(xμ0)T+xX1(xμ1)(xμ1)T

  同时定义类间散度矩阵Sb为:
Sb=(μ0μ1)(μ0μ1)T

  这样我们的优化目标重写为:
argmaxwJ(w)=wTSbwwTSww

这就是LDA的最大化目标,即SbSw的“广义瑞利商”。这样LDA问题就转化为求取最大特征向量的问题
补: 瑞利商函数是指,R(x)是A的瑞利商:R(x)=xHAxxHx
  广义瑞利商函数是指,R(x)是A相对于B的广义瑞利商:R(A)=xHAxxHBx
特征降维–主成分分析PCA

  在进行图像的特征提取的过程中,提取的特征维数太多经常会导致特征匹配时过于复杂,消耗系统资源,不得不采用特征降维的方法。所谓特征降维,即采用一个低纬度的特征来表示高纬度。特征降维一般有两类方法:特征选择和特征抽取。特征选择即从高纬度的特征中选择其中的一个子集来作为新的特征;而特征抽取是指将高纬度的特征经过某个函数映射至低纬度作为新的特征。常用的特征抽取方法就是PCA。
下面举一个简单的例子,说明PCA的过程。
  假设我们的数据集有10个二维数据(2.5,2.4), (0.5,0.7), (2.2,2.9), (1.9,2.2), (3.1,3.0), (2.3, 2.7), (2, 1.6), (1, 1.1), (1.5, 1.6), (1.1, 0.9),需要用PCA降到1维特征。
  首先我们对样本中心化,这里样本的均值为(1.81, 1.91),所有的样本减去这个均值后,即中心化后的数据集为(0.69, 0.49), (-1.31, -1.21), (0.39, 0.99), (0.09, 0.29), (1.29, 1.09), (0.49, 0.79), (0.19, -0.31), (-0.81, -0.81), (-0.31, -0.31), (-0.71, -1.01)。
  现在我们开始求样本的协方差矩阵,由于我们是二维的,则协方差矩阵为:

XXT=(cov(x1,x1)cov(x1,x2)cov(x2,x1)cov(x2,x2))
  对于我们的数据,求出协方差矩阵为:

XXT=(0.6165555560.6154444440.6154444440.716555556)
  求出特征值为(0.490833989, 1.28402771),对应的特征向量分别为:(0.735178656,0.677873399)T(0.677873399,0.735178656)T,由于最大的k=1个特征值为1.28402771,对于的k=1个特征向量为(0.677873399,0.735178656)T. 则我们的W=(0.677873399,0.735178656)T
  我们对所有的数据集进行投影z(i)=WTx(i),得到PCA降维后的10个一维数据集为:(-0.827970186, 1.77758033, -0.992197494, -0.274210416, -1.67580142, -0.912949103, 0.0991094375, 1.14457216, 0.438046137, 1.22382056)
PCA(Principal Component Analysis)不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。主要步骤:
  1.特征中心化。即每一维的数据都减去该维的均值。
  2.计算B的协方差矩阵C.
  3.计算协方差矩阵C的特征值和特征向量。
  4.选取大的特征值对应的特征向量,得到新的数据集。
PCA算法的主要优点有:
   仅仅需要以方差衡量信息量,不受数据集以外的因素影响。 
   各主成分之间正交,可消除原始数据成分间的相互影响的因素。
   计算方法简单,主要运算是特征值分解,易于实现。
  PCA算法的主要缺点有:
   主成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强
   方差小的非主成分也可能含有对样本差异的重要信息,因降维丢弃可能对后续数据处理有影响。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值