分类器训练与组合技术:原理、问题及解决方案
在实际应用中,分类器的训练和组合是解决各类分类问题的关键技术。本文将深入探讨分类器训练的相关方法,包括 PSL 框架和 BDC 方法,以及如何通过线性组合分类器来优化性能,同时解决过拟合等问题。
1. BDC 引导方法与 PSL 框架下的训练
BDC(Bootstrapping for Positive Datasets in Cascades of Boosted Ensembles)引导方法用于级联层的各个阶段训练。在这个方法中,有以下几个关键元素:
- (C_n):第 (n) 个层间子分类器
- (S_i):第 (i) 个层内阶段子分类器
- (PB_i):用于 (S_i) 的正基集
- (PR):正储备集
- (f_{min}):最小误检率
- (d_{min}):设定为 100% 的最小所需命中率
- (WK_{max}):弱分类器的最大数量
BDC 引导方法的具体步骤如下:
1. 从 (PR) 中随机选择正样本创建 (PB_i)。
2. 针对 (PB_i) 训练 (C_nS_i),直到达到 (f_{min}) 和 (d_{min}) 或 (WK_{max})。
3. 使用 (C_nS_i) 验证 (PR),并从其中移除正确分类的样本。
4. 如果 (PR) 中的所有样本都被正确预测,则开始新的层 (C_{n + 1});否则,开始新的阶段 (S_{i + 1}),并重复步骤 1。
以下是该过程的 mermaid 流程图:
超级会员免费看
订阅专栏 解锁全文
13万+

被折叠的 条评论
为什么被折叠?



