原像与约简集方法解析
1. 约简集向量与手写字符基准
在处理手写字符识别等问题时,会涉及到大量的数据和复杂的计算。例如,在某些手写字符基准测试中,会构建约简集向量。通过迭代方法构建的约简集向量,对于不同的数字(如 0 - 9)有对应的识别器。正系数大致对应分类问题中的正例。
然而,这些方法存在计算成本问题,得到的分类器往往比普通的支持向量机(SVM)有更多的支持向量(SV)。不过,结合相关程序,在测试阶段相对于虚拟 SVM 可实现约 50 倍的速度提升,且性能仅有小幅下降(测试误差从 1.0% 增加到 1.1%),达到与卷积神经网络相近的速度。
2. 约简集展开的顺序评估
RS 算法通常通过顺序查找约简集(RS)向量来工作。这意味着当近似结果令人满意时,就可以停止计算额外的 RS 向量。而且,即使计算了完整的 RS 展开,在特定问题中也不一定需要全部评估。
以人脸检测为例,运行时的分类速度是一个关键要求。传统方法是用一个经过训练的二分类器扫描整个图像,逐块检查,并且要考虑不同尺度的人脸,这使得计算量巨大。
Romdhani 等人的实验中,最初的 SVM 有 1742 个支持向量,通过特定方法将其减少到 60 个 RS 向量。对于每个可能的截止值 n(从 1 到 60),计算一个阈值,以确保仅使用前 n 个 RS 向量运行分类器时,假阴性率足够小。在第 n 步,用 n 个向量的 RS 展开扫描图像,由于之前的评估结果已缓存,每个图像位置只需计算一个额外的核。并且,第 n 次扫描只需覆盖那些尚未被确定为非人脸的区域。对于所考虑的数据集,大部分图像部分通常可以用单个 RS 向量排除,平均每个图像位置只需“查看”2.8 个 RS 向量。
这个方法不仅适用于人脸检测,还可用于需要快速评估核展开的任何任务,它自然地实现了速度 - 准确性的权衡,等待时间越长,结果越准确。
3. 方法总结
利用正定核的算法通常将解表示为输入模式映射的展开形式,如 Ψ = ∑m i = 1 αiΦ(xi)。但映射 Φ 往往未知或过于复杂,这促使人们努力降低展开的复杂度。
- 近似原像 :极端情况下,尝试用单个 Φ(z) 近似 Ψ,即找到 Ψ 的近似原像,并给出了定点迭代算法,该算法已成功应用于通过核主成分分析(Kernel PCA)重建进行统计去噪的问题。
- 稀疏展开 :当没有好的近似原像时,可将 Ψ = ∑Nx i = 1 αiΦ(xi) 表示为更稀疏的展开形式 ∑Nz i = 1 βiΦ(zi)(Nz < Nx)。介绍了计算最优系数 βi 和获取合适模式 zi 的方法,可通过从 xi 中选择或迭代上述原像算法构建合成模式 zi。这些方法有助于加速核展开的评估,如支持向量决策函数。
比较 RS 构造和 RS 选择方法,通常构造方法能实现最大的速度提升,但计算成本更高,且要求输入数据满足一定条件。在人脸检测中,顺序方法平均每个图像块所需的核评估次数少于 3 次,具有很强的竞争力。
原像和约简集方法不仅对特征空间方法有理论意义,还具有实际应用价值,可应用于基于正定核的各种特征空间算法,如加速支持向量回归机和核主成分分析特征提取器。
4. 相关问题探讨
以下是一些相关的问题,有助于进一步理解和应用这些方法:
1.
精确原像问题
:将某些命题推广到特定核函数,如 RBF 核、高斯核,探讨精确原像的情况。
2.
近似原像的合理性
:利用柯西 - 施瓦茨不等式证明近似原像在核算法中的可行性。
3.
单原像的局限性
:以 SV 超平面的法向量为例,说明通常难以找到单个原像。
4.
主成分重建
:设计从特征空间的主成分计算近似原像的替代方法,并用于去噪。
5.
最优系数问题
:证明特定情况下最优系数的计算方法,并讨论与相关命题的关系。
6.
数据相关的 RS 公式
:改变 RS 目标函数,考虑数据点的分布,并探讨哪些算法可推广使用该目标函数及如何设计高效算法。
7.
加速评估
:研究通过树结构加速核展开评估的方法,并与 RS 方法比较,探讨结合的可能性。
8.
最小支持解
:考虑使用最小支持方法设计约简集方法。
9.
聚类约简
:讨论通过聚类输入数据加速 SVM 的方法,如 k - 均值算法,以及如何使用聚类中心作为训练示例和标记它们。
10.
多类 RS 展开
:将特定方法推广到同时用少量 RS 向量近似多个特征空间展开的情况。
11.
特定核的 RS 构造
:对于二次单项式核,证明 RS 向量的构造方法,并说明使用最多 N 项可使 RS 展开精确。
12.
直接近似 SVC 决策函数
:思考一种更直接的 RS 方法,通过关注决策边界的近似来解决问题。
5. 数据集介绍
| 数据集名称 | 数据数量 | 数据处理 | 特点 |
|---|---|---|---|
| USPS 数据库 | 9298 个手写数字(7291 个训练,2007 个测试) | 每个数字是 16×16 图像,用宽度为 0.75 的高斯核平滑 | 测试集较难,人类错误率为 2.5%,部分文献使用增强训练集,本实验仅用原始 7291 个训练示例 |
| MNIST 数据库 | 120000 个手写数字,平均分为训练和测试集 | 图像先归一化到 20×20 像素框,再居中到 28×28 图像 | 常用的分类器基准,训练集大,文献中常用 10000 个字符的子集作为测试集 |
| 小 MNIST 数据库 | 训练集为 MNIST 前 5000 个模式 | 图像分辨率为 20×20,通过降采样和高斯平滑得到,测试集与 MNIST 相同 | 可用于研究小样本学习和节省计算时间 |
| Abalone 数据库 | 4177 个模式 | 数据按坐标重新缩放为零均值和单位方差,性别编码映射为 (1, 0, 0)、(0, 1, 0)、(0, 0, 1) | 整数回归问题,标签是鲍鱼的不同年龄,常作为通用回归问题处理 |
6. 部分命题证明
-
命题 7.5 的证明
- (i):根据 KKT 条件,ε > 0 意味着 ξ = 0,所以 (7.52) 变为等式。因此,最多有 α 比例的示例可以有 αi = 1 / m。所有满足 δi > 0 的示例都有 αi = 1 / m(否则,αi 可以进一步增大以减小 δi)。
- (ii):支持向量对 (7.52) 的贡献最多为 1 / m,所以至少必须有 αm 个支持向量。
- (iii):随着训练集大小趋于无穷,在分布良好的情况下,位于边界上的点的比例几乎可以忽略不计。通过对分布的分析和相关函数的性质,证明了支持向量的比例等于边界误差的比例,且两者都几乎肯定收敛到 α。同时,正、负支持向量的系数之和相等,该命题对两类分别成立,比例为 α / 2。
-
命题 7.7 的证明
- 由于 xm 的松弛变量 δm > 0,根据 KKT 条件,αm = 1 / m。当 ξ 足够小时,将点变换为 x’m = xm + ξw 后,松弛变量仍然非零,即 δ’m > 0,所以 α’m = 1 / m = αm。
- 通过更新 δm 并保持其他原始变量不变,得到一组仍然可行的原始变量。为了保持 w 不变,需要满足特定条件,通过代入和分析,得到了一组可行的对偶变量,并且 KKT 条件仍然满足,所以 (w, b) 仍然是超平面的参数。
-
命题 9.2 的证明
- (i):约束条件 (9.43) 和 (9.44) 意味着最多有 α 比例的示例可以有 α(±)i = C / m。所有满足 δ(±)i > 0 的示例(即管外的示例)肯定有 α(±)i = C / m(否则,α(±)i 可以进一步增大以减小 δ(±)i)。
- (ii):根据 KKT 条件,ν > 0 意味着 η = 0,所以 (9.44) 变为等式。由于支持向量是那些满足 0 < α(±)i ≤ C / m 的示例,结合相关条件可得到结果。
- (iii):通过证明点位于管边缘的概率渐近消失,利用分布条件和相关函数的覆盖数性质,证明了管边缘的点的比例几乎肯定收敛到 0,从而支持向量的比例等于误差的比例,且两者都几乎肯定收敛到 α。
-
命题 17.9 的证明
- 通过类似命题 17.8 的证明方法,利用相关约束和不等式,如 Hoeffding 不等式和并集界,结合覆盖数的性质,证明了相关结论。
-
命题 17.10 的证明
- 利用 [292] 中的技巧,在不需要界定近似误差的情况下,通过积分和不等式推导,得到了 R[f emp] - R[f ] 的上界。对于不同的情况,如设置 ω = m^(-1/2),得到了相应的结果,证明了整体项的阶数符合要求。
graph LR
A[开始] --> B[获取初始 SVM 支持向量]
B --> C[减少支持向量到 RS 向量]
C --> D[计算不同截止值的阈值]
D --> E[第 n 步扫描图像]
E --> F{是否完成所有步骤}
F -- 否 --> E
F -- 是 --> G[结束]
通过以上对原像与约简集方法的介绍,我们可以看到这些方法在提高计算效率和解决实际问题方面具有重要的作用,并且不同的数据集和命题证明为方法的应用和理论基础提供了丰富的支持。未来,随着核方法在更多学习和信号处理问题中的应用,这些方法有望发挥更大的作用。
原像与约简集方法解析
7. 原像与约简集方法的应用场景拓展
原像与约简集方法在多个领域展现出了强大的应用潜力,除了前面提到的手写字符识别和人脸检测,还可拓展到以下场景:
-
图像分类
:在大规模图像分类任务中,数据量巨大,计算复杂度高。使用约简集方法可以减少支持向量的数量,从而加速分类过程。例如,在对不同种类的动物图像进行分类时,通过构建约简集向量,可以快速判断图像所属的类别。
-
语音识别
:语音信号通常包含大量的信息,处理起来较为复杂。原像与约简集方法可以帮助提取语音信号的关键特征,提高识别的准确性和速度。比如,在语音指令识别系统中,能够更高效地识别用户的语音指令。
-
生物信息学
:在基因序列分析、蛋白质结构预测等生物信息学问题中,数据维度高且复杂。这些方法可以降低数据的复杂度,提高分析的效率。例如,在基因表达数据分析中,通过约简集方法可以筛选出与特定疾病相关的关键基因。
8. 操作步骤总结
为了更好地应用原像与约简集方法,下面总结了一些具体的操作步骤:
1.
数据准备
- 选择合适的数据集,如 USPS、MNIST 等。
- 对数据进行预处理,包括归一化、平滑等操作。
2.
模型训练
- 训练初始的支持向量机(SVM)模型。
- 计算支持向量和相关系数。
3.
约简集向量构建
- 使用迭代方法或其他特定方法构建约简集向量。
- 确定约简集向量的数量和系数。
4.
阈值计算
- 对于不同的截止值 n,计算相应的阈值,确保假阴性率足够小。
5.
分类或回归
- 使用约简集向量进行分类或回归操作。
- 根据阈值判断分类结果。
6.
评估与优化
- 评估模型的性能,如准确率、误差率等。
- 根据评估结果进行优化,调整参数或方法。
9. 不同方法的比较
| 方法 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|
| RS 构造方法 | 速度提升大 | 计算成本高,对输入数据有要求 | 数据量较大且对速度要求较高的场景 |
| RS 选择方法 | 计算成本相对较低 | 速度提升相对较小 | 数据量较小或对计算资源有限的场景 |
10. 注意事项
在应用原像与约简集方法时,需要注意以下几点:
-
数据质量
:数据的质量直接影响模型的性能。确保数据的准确性和完整性,避免噪声数据的干扰。
-
参数选择
:不同的方法和数据集可能需要不同的参数设置。需要通过实验来选择最优的参数,以达到最佳的性能。
-
计算资源
:某些方法的计算成本较高,需要考虑计算资源的限制。在资源有限的情况下,可以选择计算成本较低的方法。
graph LR
A[数据准备] --> B[模型训练]
B --> C[约简集向量构建]
C --> D[阈值计算]
D --> E[分类或回归]
E --> F[评估与优化]
F -- 优化后 --> B
11. 未来发展趋势
随着人工智能和机器学习技术的不断发展,原像与约简集方法也将不断完善和拓展。未来可能的发展趋势包括:
-
与深度学习的结合
:将原像与约简集方法与深度学习模型相结合,充分发挥两者的优势,提高模型的性能和效率。例如,在卷积神经网络中应用约简集方法,减少计算量。
-
自适应约简集构建
:开发自适应的约简集构建方法,能够根据不同的数据集和任务自动调整约简集的大小和结构,提高方法的通用性和灵活性。
-
多模态数据处理
:在处理多模态数据(如图像、语音、文本等)时,原像与约简集方法可以帮助融合不同模态的数据,挖掘更丰富的信息。
通过对原像与约简集方法的深入研究和应用,我们可以在提高计算效率的同时,解决更多复杂的实际问题。不同的应用场景和操作步骤为方法的实践提供了指导,而未来的发展趋势则为方法的进一步发展指明了方向。
超级会员免费看
1744

被折叠的 条评论
为什么被折叠?



