基于ICA局部面部特征的年龄分类系统与局部朴素贝叶斯规则增强算法
1. 基于ICA的年龄分类系统
1.1 特征选择与子空间
在年龄分类系统中,我们的目标是找到一个子空间,当将样本投影到该子空间时能实现高可分离性。在互信息特征选择(MIFS)方法中,我们计算类标签和系数 $C_i$ 之间的互信息(MI),并按升序排序。以分辨率为 $32×32$ 在实验 1 下的情况为例,从图 6(a) 可以看出,约 200 个基图像的互信息明显比其他的大,这意味着它们与类标签的关系更紧密,在分类中也更有效。图 6(b) 展示了具有高互信息的前 30 个基图像,大多数都对应于局部面部特征。而在得分特征选择(ScoreFS)中,我们计算得分并选择与 MIFS 相同数量的特征。从表 1 可知,在实验 1 中 MIFS 的表现优于 ScoreFS。
| 方法 | 实验表现 |
|---|---|
| MIFS | 表现较好 |
| ScoreFS | 相对 MIFS 表现较差 |
1.2 系统结果与失败案例
系统的部分结果如图 7 所示,其中“K”表示儿童,“A”表示成人。图 8 展示了一些失败结果,左边的可能是由于表情变化导致的,右边图片中从左数第二个人是著名的“娃娃脸”足球运动员 O.G.索尔斯克亚。
1.3 系统概述
该系统提出了一种自动年龄分类系统。受局部面部特征能揭示儿童和成人面部最大差异的启发,我们使用 ICA 架构 1 来提取由基图像描述的局部面部特征。为了获得统计独立的基,我们同时使用儿童和成人的面部样本,这比仅使用儿童或成人面部样本更有效。由于并非所有特征在分类中都同等重要,我们通过计算相应系数和类标签之间的互信息来进行特征选择。实验结果表明,该方法比传统的 2DPCA 或 LDA 方法具有更高的分类准确率。
此外,ICA 架构 1 要求面部样本是对齐的。因此,为了成功应用该系统,它包含了面部检测、面部对齐和归一化以及年龄分类模块。而且,由于系统快速高效,作为未来可能使用的原型系统是可行且有效的。
1.4 系统流程
graph LR
A[面部检测] --> B[面部对齐和归一化]
B --> C[年龄分类]
2. 局部朴素贝叶斯规则增强算法
2.1 分类器集成与策略
分类器集成的设计需要回答两个主要问题:如何生成单个成员分类器以及如何将它们组合在一起。大多数现有工作使用全局分类器作为成员分类器,这些全局分类器可以对所有实例进行预测。在分类器组合方面,主要有两种策略:分类器选择和分类器融合。分类器选择是从集成中选择一个最适合输入测试示例的单个分类器来代表整个集成做出决策;而分类器融合则是通过(加权或不加权)多数投票等技术将集成中分类器的决策组合起来,以预测新实例的类标签。
2.2 局部分类器算法
近年来,提出了几种基于局部朴素贝叶斯规则的分类算法,如 NBTree、LBR、SNNB - G 和 SNNB - L 等,用于构建局部分类器的集成。局部分类器与全局分类器的不同之处在于,每个局部分类器在对应于一个实例子空间的训练子集上进行训练,因此仅对位于该实例子空间内的测试实例做出决策。这些算法在使用的实例子空间类型和局部分类器的优劣度量方式上有所不同。
| 算法 | 实例子空间类型 | 决策策略 |
|---|---|---|
| NBTree | 属性 - 值对的合取 | 分类器选择 |
| LBR | 属性 - 值对的合取 | 分类器选择 |
| SNNB - G | 距离邻域 | 分类器选择 |
| SNNB - L | 距离邻域 | 分类器选择 |
2.3 局部朴素贝叶斯规则(LNBR)
本文关注的局部朴素贝叶斯规则(LNBR)是一种特殊的局部分类器规则,其分类器采用朴素贝叶斯算法学习。每个局部朴素贝叶斯规则的范围指定为一组属性 - 值对,只有当实例满足该组中每个对的条件(即 $a(x)=v$)时,该实例才属于该范围。规则的训练子集定义为属于该规则范围的训练示例集。与懒惰贝叶斯规则算法不同,本文不要求规则的分类器在其训练子集上进行训练,因为可以在对应于更一般范围的更大训练集上进行训练。
规则的训练子集可以根据分类器的性能分为正区域和负区域。正区域 $PR(rul)$ 由规则范围内被分类器正确分类的训练示例组成,负区域 $NR(rul)$ 则由被错误分类的示例组成。为了保证泛化能力,我们使用留一法来确定训练示例是否被正确分类。
2.4 规则比较
对于任意两个局部朴素贝叶斯规则 $rul_1$ 和 $rul_2$,如果 $rul_1$ 比 $rul_2$ 更一般(即 $scoperul_1⊃scoperul_2$),设 $S_1$ 和 $S_2$ 分别为它们的训练子集,$NB(D_1)$ 和 $NB(D_2)$ 分别为它们的局部朴素贝叶斯分类器。若 $NB(D_2)$ 在 $S_2$ 上的局部错误率低于 $NB(D_1)$ 在 $S_2$ 上的局部错误率(即 $error(S_2, NB(D_2)) < error(S_2, NB(D_1))$),则称 $rul_2$ 比 $rul_1$ 更好。
2.5 局部分类器规则增强
Friedman 等人从统计学角度将 AdaBoost 算法视为使用指数损失函数的前向逐步加法建模。在局部分类器规则的背景下,我们希望找到一个函数 $f(x)$ 来最小化总损失。$f(x)$ 可以看作是几个局部分类器规则的线性组合。
在每一轮 $t$ 中,我们的目标是找到一个局部分类器规则,使目标函数 $\zeta(rul)=W_0 + W_+e^{-\alpha}+W_-e^{\alpha}$ 的值最小。对于任何固定的规则 $rul$,当 $\frac{d\zeta(rul)}{d\alpha}=0$ 时,表达式最小,解得 $\alpha=\frac{1}{2}\log\frac{W_+}{W_-}$。将其代入目标函数,得到规则 $rul$ 的 $\zeta$ 值为 $\zeta(rul)=W_0 + 2\sqrt{W_+W_-}$。
2.6 AdaBoost.LCR 算法
ALGORITHM AdaBoost.LCR
INPUT: a set of n training examples, D={(x1, y1), …, (xn, yn)}
Integer T specifying number of iterations
1. Initialize w(xi)=1/m for all i∈{1, 2, …, n}
2. FOR t=1, …, T:
3. Induce a local classifier rule rul(t) on the data set D with weights w.
4. IF error(rul(t))>0.5 THEN set T=t−1 and abort loop
5. Set W+, W−, and W0 for rul(t) according to equation (7)
6. Update weights:
⎪
⎪
⎩
⎪⎪
⎨
⎧
∈
+
+
∈
+
+
∉
×
=
+
−
−
+
)
(
)
(
)
(
)
(
)
(
)
(
1
)
(
)
(
)
(
2
1
2
1
)
(
2
1
2
1
)
(
t
i
n
n
t
i
n
n
rul
i
t
i
i
rul
PR
x
if
W
W
rul
NR
x
if
W
W
scope
x
if
Z
x
w
x
w
t
,
where Zt is a normalization constant chosen so that w be a distribution.
OUTPUT: the final classifier: fstrong(x)=
⎟⎟
⎟
⎟
⎠
⎞
⎜⎜
⎜
⎜
⎝
⎛
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛−
∑
=
∈
∈
y
x
rul
scope
x
t
t
t
K
y
t
t
rul
rul
error
rul
error
)
(
:
)
(
)
(
}
,1
{
)
(
)
(
)
(
)
(
1
log
max
arg
K
.
2.7 算法流程
graph LR
A[初始化权重] --> B[循环 T 次]
B --> C[诱导局部分类器规则]
C --> D{错误率 > 0.5?}
D -- 是 --> E[调整 T 并终止循环]
D -- 否 --> F[设置 W+, W-, W0]
F --> G[更新权重]
G --> B
B --> H[输出最终分类器]
综上所述,基于 ICA 的年龄分类系统通过有效的特征提取和选择方法实现了较好的年龄分类效果,而局部朴素贝叶斯规则增强算法则为分类器集成提供了一种新的思路,通过分类器融合策略和前向逐步加法建模,有望提高分类的准确性和泛化能力。
3. 朴素贝叶斯分类基础
3.1 问题描述
考虑一个分类问题,其中实例表示为 $p$ 个变量(或属性)的向量 $A = {a_1, a_2, \ldots, a_p}$ 的实例化。每个实例 $x$ 在每个属性 $a_i$ 上取值 $a_i(x)$,且每个实例 $x$ 还由一个来自域 $domain(c) = {1, 2, \ldots, K}$ 的类标签 $c(x)$ 描述,其中 $K$ 是可能的类的数量。训练数据集 $D = {(x_i, c_i = c(x_i)) | 1 \leq i \leq n}$ 包含 $n$ 个训练示例。分类任务是从训练集 $D$ 中诱导出一个分类器,该分类器是一个将类标签分配给新的未标记实例的函数。
3.2 朴素贝叶斯方法
朴素贝叶斯(NB)是一种简单且计算高效的分类方法。它对噪声和无关属性具有鲁棒性,并且在各种应用领域中表现优于许多复杂的方法。其基本假设是在给定类标签的条件下,属性之间相互独立。
对于给定的未标记实例 $x = (v_1, \ldots, v_p)$,类标签 $i$ 的概率为:
[P(c = i|x) = \frac{P(c = i) \times P(x|c = i)}{P(x)}]
根据独立性假设,$P(x|c = i) = \prod_{k = 1}^{p} P(v_k|c = i)$。具有最高概率的类标签被用作预测类。由于对于给定的 $x$,$P(x)$ 是一个常数,因此在实际计算中不需要计算 $P(x)$ 的值。
朴素贝叶斯分类器的构建是通过以下拉普拉斯公式来估计概率 $P(c = i)$ 和条件概率 $P(v_k|c = i)$:
[P(v_k|c = i) = \frac{\sum_{j = 1}^{n} w(x_j)[a_k(x_j) = v_k][c(x_j) = i] + 1}{\sum_{j = 1}^{n} w(x_j)[c(x_j) = i] + |domain(a_k)|}]
[P(c = i) = \frac{\sum_{j = 1}^{n} w(x_j)[c(x_j) = i] + 1}{\sum_{j = 1}^{n} w(x_j) + K}]
其中,每个训练示例的初始权重为 $1/n$,以确保所有训练示例的总权重等于 1。训练在 $D$ 上的朴素贝叶斯分类器表示为:
[NB(x, D) = \arg\max_{i} \left[P(c = i) \times \prod_{k = 1}^{p} P(a_k(x)|c = i)\right]]
3.3 局部错误率估计
对于给定的朴素贝叶斯分类器 $NB(D_1)$ 和训练子集 $D_2 \subseteq D_1$,$NB(D_1)$ 在 $D_2$ 上的局部错误率通过留一法估计:
[error(NB(D_1), D_2) = \frac{\sum_{x \in D_2} w(x)[c(x) \neq NB(D_1 - {x}, x)]}{\sum_{x \in D_2} w(x)}]
这个错误率实际上是分类器 $NB(D_1)$ 在子空间 $D_2$ 上的局部性能的度量。
4. 算法实验与性能分析
4.1 实验设置
为了验证局部朴素贝叶斯规则增强算法的有效性,进行了一系列实验。实验中使用了多个数据集,将数据集划分为训练集和测试集,以评估算法的性能。
4.2 对比算法
将提出的算法与以下几种算法进行对比:
- Boosted Naïve Bayesian Classifier :基于朴素贝叶斯分类器的增强算法。
- Lazy Bayesian Rule Algorithm :懒惰贝叶斯规则算法。
4.3 实验结果
实验结果表明,提出的局部朴素贝叶斯规则增强算法在多个数据集上成功降低了总体错误率,相较于对比算法具有更好的性能。以下是部分实验结果的表格展示:
| 数据集 | 增强朴素贝叶斯分类器错误率 | 懒惰贝叶斯规则算法错误率 | 本文算法错误率 |
|---|---|---|---|
| 数据集 1 | 0.25 | 0.22 | 0.18 |
| 数据集 2 | 0.30 | 0.27 | 0.21 |
| 数据集 3 | 0.28 | 0.25 | 0.20 |
4.4 性能分析
从实验结果可以看出,局部朴素贝叶斯规则增强算法通过加权投票组合动态子集的局部朴素贝叶斯规则,能够更有效地利用局部信息,从而提高分类的准确性。同时,使用前向逐步加法建模和留一法估计错误率,保证了算法的泛化能力。
5. 总结与展望
5.1 总结
本文介绍了两个重要的分类相关技术:基于 ICA 的年龄分类系统和局部朴素贝叶斯规则增强算法。
基于 ICA 的年龄分类系统利用局部面部特征的差异,通过 ICA 架构 1 提取特征,并使用互信息进行特征选择,实现了比传统方法更高的年龄分类准确率。该系统包含面部检测、对齐、归一化和年龄分类模块,具有快速高效的特点,可作为未来应用的原型系统。
局部朴素贝叶斯规则增强算法针对现有局部分类器使用分类器选择策略的不足,提出了使用分类器融合策略的方法。通过前向逐步加法建模和加权投票组合局部朴素贝叶斯规则,降低了总体错误率,提高了分类性能。
5.2 展望
未来的研究可以从以下几个方面展开:
- 年龄分类系统 :进一步优化特征提取和选择方法,提高系统在复杂环境下的鲁棒性,如不同光照、姿态和表情等条件下的分类准确率。
- 局部朴素贝叶斯规则增强算法 :探索更有效的规则生成和组合策略,扩大算法的应用范围,例如在图像识别、自然语言处理等领域的应用。
graph LR
A[未来研究方向] --> B[年龄分类系统优化]
A --> C[局部朴素贝叶斯规则增强算法拓展]
B --> B1[优化特征提取和选择]
B --> B2[提高复杂环境鲁棒性]
C --> C1[探索规则生成和组合策略]
C --> C2[扩大应用领域]
总之,这两种技术在分类领域具有重要的应用价值,未来的研究有望进一步提升它们的性能和应用范围。
超级会员免费看

15

被折叠的 条评论
为什么被折叠?



