利用降维方案优化基于差异度的分类器
在统计模式识别领域,基于差异度的分类器(DBCs)是一项新颖的发展。它通过合适的差异度度量来定义类别之间的分类器,而非基于单个模式的特征测量。不过,在设计DBCs时,存在一些关键问题需要解决。
1. DBCs面临的问题
设计DBCs时主要遇到以下几个问题:
- 如何选择原型。
- 如何测量对象样本之间的差异度。
- 如何在差异度空间中设计分类器。
为了选择具有代表性且紧凑的数据子集,前人提出了多种方法,例如Duin及其同事讨论的Random、RandomC、KCentres、ModeSeek、LinProg、FeatSeal、KCentres - LP和EdiCon等方法,这些方法会对训练集进行修剪以得到代表原型集。另外,Kim和Oommen通过原型缩减方案(PRS)也获得了一个代表子集,并同时提议使用马氏距离作为差异度测量标准,以此提高了DBCs的分类准确率。
然而,选择原型存在一些难题。一方面,很难确定最优的原型数量;另一方面,在选择原型的过程中,可能会丢失一些对分类有用的信息。
2. 解决方案:使用降维方案
为了避免上述问题,提出了一种替代方法:使用训练集中的所有可用样本作为原型,然后应用降维方案。具体来说,不直接从训练样本中选择代表原型,而是在计算整个训练样本的差异度矩阵后使用降维方案。
2.1 DBCs基础
一组样本 $T = {x_i} {i = 1}^{n} \in \Re^d$ 的差异度表示基于成对比较,可表示为一个 $n \times m$ 的差异度矩阵 $D {T,Y
超级会员免费看
订阅专栏 解锁全文
877

被折叠的 条评论
为什么被折叠?



