大间隔分类器入门指南
在数据分类学习领域,大间隔概念正逐渐成为分析多种不同方法的统一原则,这些方法涵盖了提升算法、数学规划、神经网络和支持向量机等。本文将深入探讨大间隔分类器的基本概念、理论基础以及相关算法,旨在为读者提供全面的入门指导。
1. 简单分类问题
在分类问题中,我们通常会得到一组训练数据 $X := {x_1, \ldots, x_m} \subseteq R^N$(其中 $m \in N$),以及对应的标签 $Y := {y_1, \ldots, y_m} \subseteq {-1, 1}$。我们的目标是找到一个决策函数 $g : R^N \to {-1, 1}$,能够准确预测未见过的数据点 $(x, y)$ 的标签,也就是要最小化分类误差,即 $g(x) \neq y$ 的概率。
一种常见的表示决策函数的方法是使用实值预测函数 $f : R^N \to R$,并通过符号阈值得到最终分类 $g(x) = sgn (f(x))$。以线性决策函数为例,未阈值化的预测由输入向量 $x$ 的简单线性函数给出:
$g(x) := sgn (f(x))$,其中 $f(x) = (x \cdot w) + b$,$w \in R^N$ 且 $b \in R$。
这个分类规则的决策边界 ${x|f(x) = 0}$ 是一个 $N - 1$ 维超平面,将类别 “+1” 和 “-1” 分隔开来。
然而,在实际应用中,特别是处理噪声数据时,可能不存在能正确分类所有训练点的参数 $(w, b)$。接下来,我们将探讨几种解决此类问题的方法。
1.1 贝叶斯最优解
假设数据 $X, Y$ 是从 $R^N \t
大间隔分类器入门指南
超级会员免费看
订阅专栏 解锁全文
736

被折叠的 条评论
为什么被折叠?



