统计模式识别中的顺序假设检验与参数分类器
顺序假设检验概述
在以往考虑的分类问题中,用于分类的样本信息通常是一次性全部获取的。分类器依据贝叶斯规则,利用单个观测向量做出决策,因为后续不会再有新的观测。在这种情况下,除非改变观测过程,否则我们对分类误差基本无法控制。
然而,在许多实际问题中,观测往往是顺序进行的,随着时间推移,可获取的信息越来越多。例如,通过观察机器的振动来判断其状态,一系列观测到的波形应属于同一类别,即“良好”或“不良”状态;雷达检测问题也是如此,一段时间内的回波脉冲序列应来自同一类别,即目标存在或不存在。对于这类问题,一种基本方法是对观测向量序列进行平均,这有助于过滤噪声,使观测向量趋近于期望向量。理论上,只要两类的期望向量不同,就有可能实现零误差分类。但由于无法获取无限多个观测向量,因此需要一个条件或规则来决定何时停止观测,顺序假设检验就是解决这类问题的数学工具。
顺序检验
设 $X_1, \cdots, X_m$ 为顺序观测得到的随机向量,假设它们来自同一分布,即相互独立且同分布。利用这些 $m$ 个向量的联合密度函数 $p_i(X_1, \cdots, X_m) (i = 1,2)$,负对数似然比为:
[s = \sum_{j = 1}^{m} h(X_j)]
其中 $h(X) = - \ln \frac{p_1(X)}{p_2(X)}$ 是单个观测向量的似然比。将 $s$ 与贝叶斯分类器的阈值(如 $\ln\frac{P_1}{P_2}$)进行比较,根据 $s < 0$ 或 $s > 0$(假设 $\ln\frac{P_1}{P_2} = 0$),将样本组 $(X_1, \cdots, X_m)$
超级会员免费看
订阅专栏 解锁全文
3738

被折叠的 条评论
为什么被折叠?



