详解2D-PCA (二维PCA)

 

传统的一维PCA和LDA方法是在图像识别的时候基于图像向量,在这些人脸识别技术中,2D的人脸图像矩阵必须先转化为1D的图像向量,然后进行PCA或者LDA分析。缺点是相当明显的:

   一、转化为一维之后,维数过大,计算量变大。

  二、主成分分析的训练是非监督的,即PCA无法利用训练样本的类别信息。

  三、识别率不是很高。

本文介绍的是2DPCA,2DPCA顾名思义是利用图像的二维信息。

      2DPCA算法简介

  设X表示n维列向量,将mxn的图像矩阵A通过如下的线性变化直接投影到X上:

          

得到一个m维的列向量Y,X为投影轴,Y称为图像A的投影向量。最佳投影轴X可以根据特征相怜Y的散度分布情况来决定,采用的准则如下:

            

其中Sx表示的是训练样本投影特征向量Y的协方差矩阵,tr(Sx)带便的是Sx的迹,但此准则去的最大的值得时候,物理意义是:找到一个将所有训练样本投影在上面的投影轴X,使得投影后的所得到的的特征向量的总体散布矩阵(样本类之间的散布矩阵)最大化。矩阵Sx可以记为如下的式子:

 所以呀,

                             

散度的形象化理解:

                 

我们接着定义下面的矩阵:

                               

其中Gt被定义为图像的协方差矩阵,它是一个nxn的矩阵,我们可以后直接利用训练样本来计算Gt。假设训练样本总数为M个,训练图像样本为mxn的矩阵Aj(j=1...M),所有的训练样本的平均图像是,则Gt可以用下面的式子计算:

                

那么原式可以转化为

其中X是归一化的正交向量。这个准则就叫做广义总体散布准则。二X就使准则最大化,叫做最佳投影轴。物理意义是:图像矩阵在轴上面投影之后得到的特征向量的总体分散程度最大。

 这里的最佳投影轴Xopt是归一化的向量,使得J(X)最大化。

我们通常选取一系列的标准正交话投影轴,即设Gt的特征值从大到小,则对应的向量为:

  

图像的特征矩阵:

      X1,...Xd可以用于特征的提取。对于一个给定的图像样本A,有下面的式子成立:

 

这样我们就得到一组投影特征向量Y1,...Yd,叫图像A的主要成分向量。2DPCA选取一定数量d的主要成分向量可以组成一个mxd的矩阵,叫图像A的特征或者特征图像,即:

  

利用上面得到的特征图像进行分类:

         经过上面的图像特征化之后,每个图像都能得到一个特征矩阵。设有C个已知的模式分类w1,w2,.....wc,ni表示第i类的训练样本数,训练样本图像的投影特征向量,(i=1,2...C;j=1,2...,ni),第i类投影特征向量的均值为,在投影空间内部,最邻近分类规则是:如果样本Y满足:

同时最小距离分类规则是:如果样本Y满足

              

随便编了一下:

 

allsamples=[];
global pathname;
global Y;
global x;
global p;
global train_num;
global M;
global N;
M=112;%row
N=92;%column
train_num=200;
Gt=zeros(N,N);
pathname='C:\matlabworkspace\mypca\ORL\s';
for i=1:40
    suma=zeros(M,N);
        for j=1:5
            a=imread(strcat(pathname,num2str(i),'\',num2str(j),'.pgm'));
            a=double(a);
            suma=suma+a;
        end
            averageA=suma/5;
        for j=1:5
               a=imread(strcat(pathname,num2str(i),'\',num2str(j),'.pgm'));
               a=double(a);
              Gt=Gt+(a-averageA)'*(a-averageA);
        end
end

    Gt=Gt/train_num;
    
    [v d]=eig(Gt);
  for i=1:N
        dd(i)=d(i,i);
  end
    [d2 index]=sort(dd,'descend');
    
    cols=size(v,2)
   for i=1:cols
        dsort(:,i)=v(:,index(i));
   end
  
   dsum=sum(dd);
   dsum_extract=0;
  
   p=0;
   while(dsum_extract/dsum<0.8)
   p=p+1;
   dsum_extract=dsum_extract+dd(p);
   end
  x=dsort(:,1:p);
 x
  p
  size(x)
 Y=cell(40);
  for  i=1:40
      tempA=zeros(M,N);
      for j=1:5
          a=imread(strcat(pathname,num2str(i),'\',num2str(j),'.pgm'));
          a=double(a);
          tempA=tempA+a;
      end
      tempA=tempA/5;
      Y(i)=mat2cell(tempA*x);
  end
  
 %test course
 
 accu=0;
 for i=1:40
     for j=6:10
     a=imread(strcat(pathname,num2str(i),'\',num2str(j),'.pgm'));
     a=double(a);
     tempY=a*x;
     tempindex=1;
     tempsum=10000000;
     for k=1:40
         sumlast=0.0;
         YY=cell2mat(Y(k));
         
          for l=1:p
             sumlast=sumlast+norm(tempY(:,l)-YY(:,l));
          end
          
          if(tempsum>sumlast)
              tempsum=sumlast;
              tempindex=k;
          end
     end
     if tempindex==i
         accu=accu+1;
     end
     end
 end
     accuracy=accu/200
          
       
    
    
    
            

结果:

没有用交叉验证法,所以精确度不是很高(我懒啊:)),仅作参考,如有错误,希望帮我指出来哈。

<think>嗯,用户想了解主成分分析(PCA)的详细原理和使用方法。首先,我需要回忆一下PCA的基本概念。PCA是一种降维技术,通过线性变换将高维数据投影到低维空间,保留主要特征。用户可能希望知道背后的数学原理,比如方差最大化、协方差矩阵、特征值分解这些关键点。 接下来,用户提到了使用方法,可能涉及实际应用步骤和代码实现。比如数据标准化、计算协方差矩阵、特征值分解、选择主成分、投影等步骤。同时,用户提供的引用中有提到sklearn库的PCA模块,所以需要介绍如何在Python中使用sklearn进行PCA分析。 用户的问题需要分两部分回答:原理和应用。原理部分要详细但不过于复杂,可能需要解释方差最大化的思想,协方差矩阵的作用,特征向量的意义。应用部分则需要步骤化的说明,加上代码示例,让用户能跟着操作。此外,用户提供的引用中有关于PCA步骤和sklearn属性的信息,要整合到回答中。 还要注意引用标记,比如在提到主成分选择时引用[^1],协方差矩阵时引用[^2],sklearn部分引用[^3]。需要确保每个引用准确对应到用户提供的引用内容。例如,方差百分比和属性解释对应引用[^3]。 可能用户是数据科学初学者,想应用PCA但不太清楚数学基础,所以需要平衡理论和实践。要避免过多数学推导,但又要足够解释清楚原理。比如,解释为什么协方差矩阵的特征向量对应主成分方向,以及特征值的大小表示方差贡献。 此外,生成的相关问题需要围绕PCA展开,比如优化方法、应用场景、与LDA的区别、成分数选择、处理缺失值等,这些都是用户可能进一步想了解的内容。 最后,检查LaTeX格式是否正确,确保数学表达式用$...$或$$...$$,代码块用正确语法,引用标记自然添加。例如,协方差矩阵公式用$$...$$单独成段,特征值分解部分正确引用[^2]。</think>### 主成分分析(PCA)原理详解及应用 #### 一、PCA的核心原理 1. **目标**:通过线性变换将高维数据映射到低维空间,同时保留最大方差信息[^1]。 2. **数学基础**: - **方差最大化**:主成分方向是数据投影后方差最大的方向。 - **协方差矩阵**:通过计算协方差矩阵$C = \frac{1}{n}X^TX$,分析特征之间的相关性[^2]。 - **特征值分解**:对协方差矩阵进行特征分解,得到特征值$\lambda_i$和对应的特征向量$v_i$,其中特征值大小反映主成分的重要性。 $$ C = V \Lambda V^T \quad (\Lambda为对角矩阵,V为正交矩阵) $$ 3. **降维逻辑**: - 选择前$k$大特征值对应的特征向量构成投影矩阵$W \in \mathbb{R}^{d×k}$ - 降维后的数据$Y = XW$ #### 二、PCA的完整实现步骤 1. **数据标准化**:对每个特征进行中心化处理: $$ x_{ij} = \frac{x_{ij} - \mu_j}{\sigma_j} $$ 2. **计算协方差矩阵**:对标准化后的数据计算$d×d$协方差矩阵 3. **特征值分解**:获取特征值和特征向量 4. **主成分选择**: - 按特征值降序排列,计算累计方差贡献率: $$ \text{累计贡献率} = \frac{\sum_{i=1}^k \lambda_i}{\sum_{i=1}^d \lambda_i} $$ - 一般保留累计贡献率≥85%的成分[^3] 5. **数据投影**:用选定的特征向量进行线性变换 #### 三、Python实现示例 ```python from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler # 数据预处理 scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # PCA建模 pca = PCA(n_components=0.95) # 保留95%方差 X_pca = pca.fit_transform(X_scaled) # 结果分析 print("主成分方差比:", pca.explained_variance_ratio_) print("累计方差:", sum(pca.explained_variance_ratio_)) ``` #### 四、关键参数解析(sklearn.PCA) | 参数 | 说明 | |------|------| | `n_components` | 可指定保留成分数或方差阈值 | | `whiten` | 是否进行白化处理(标准化方差) | | `svd_solver` | 支持auto/full/randomized等分解方法 | #### 五、典型应用场景 1. **数据可视化**:将高维数据降维到2D/3D 2. **特征工程**:消除多重共线性,提升模型效率 3. **图像处理**:人脸识别中的特征提取 4. **信号去噪**:通过保留主成分实现降噪 #### 六、注意事项 1. PCA对量纲敏感,必须先标准化 2. 主成分是原始特征的线性组合,可能影响可解释性 3. 非线性数据关系可能不适用(需配合核方法)
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值