需要注意的是:
1、在基于流行学习的方法中,所谓的M=(I-W)*(I-W)'中的I是单位矩阵。而不是1
2、对于图W,我们将系数按照一列一列的形式放,并且,Sw = Train_Ma*Mg*Train_Ma';Sb = Train_Ma*Train_Ma';
3、NPE在各种情况下的识别错误率对比,
第一种:ORL_56x46.mat数据库,不用PCA降维,选取每类样本的前k个样本,投影后的样本也做了归一化,SRC使用的是DALM_fast( [solution status]=SolveDALM_fast(Train_data,test_sample,0.01);)
结论:(1) 样本投影后,可能并不能增加识别率,反而会降低识别率。
(2) 虽然NPE是基于重构约束的,但是投影后的样本并不具备很好的表示效果,即投影后的样本在使用SRC识别时,同样识别率下降很厉害。
(3) cai deng的代码中我没有调节降维维度,所以可能会差一点吧!!!
| 样本个数 | 2 | 3 | 4 | 5 | 6 |
| 原始数据上KNN | 77.81 | 79.29 | 78.33 | 77 | 75 |
| NPE(有监督,k=train_num-1)KNN识别 | 77.81 | 78.21 | 78.75 | 79 | 76.25 |
| NPE(无监督,k=train_num-1)KNN识别 | 78.44 | 80.71 | 85 | 86 | 86.25 |
| 原始数据SRC | 76.88 | 79.29 | 77.08 | 78 | 73.75 |
| NPE(有监督,k=train_num-1)SRC识别 | 77.19 | 78.21 | 78.75 | 79 | 76.25 |
| NPE(无监督,k=train_num-1)SRC识别 | 78.44 | 82.86 | 85.42 | 86.5 | 90.63 |
| our NPE 无监督 k=train_num-1 KNN dim=80 | 72.5 | 73.13 | |||
| our NPE 有监督k=traiin_num-1 KNN dim=80 | 74.29 | 73.13 | |||
| our NPE 无监督 k=train_num-1 SRC dim=80 | 74.29 | 74.38 | |||
| our NPE 有监督 k=train_ |

本文探讨了流行学习中的近邻保持算法,包括LLE、LPP和NPE在ORL数据库上的应用。实验结果显示,样本投影后可能降低识别率,NPE基于重构约束但投影样本识别效果不佳。在LLE中,直接对M=(I-W)(I-W)'进行特征值分解。对于NPE,两种实现方式(cai deng的代码和自编代码)在不同选取策略下,识别错误率有显著差异,随机选取样本能改善识别效果。
最低0.47元/天 解锁文章
2624

被折叠的 条评论
为什么被折叠?



