支持向量机分类器的改进与多类别学习策略
在机器学习领域,分类问题一直是研究的热点,支持向量机(SVM)作为一种强大的分类工具,在众多领域得到了广泛应用。本文将介绍一种改进的支持向量机分类器,以及用于多类别支持向量机学习的合作递归神经网络(CRNN)。
改进的支持向量机分类器
SVM基础
SVM由Vapnik提出,广泛应用于分类和回归问题。它通过寻找一个判别超平面来区分不同的类别,该超平面能最大化与最近训练点的距离,即最大化间隔,这有助于提高模型的泛化能力。训练SVM是一个二次优化问题,目标是构建超平面 $w^Tx + b = 0$(其中 $w$ 是超平面系数向量,$b$ 是偏置项),使超平面与最近点的间隔最大。
这种能使用线性决策边界进行分类的SVM被称为线性SVM。不过,通过“核技巧”,可以在仅略微增加分类器复杂度的情况下创建非线性决策边界。非线性决策函数如下:
[f(x) = \text{sign}\left(\sum_{i=1}^{N} \alpha_i y_i k(x, x_{SV_i}) + b\right)]
其中,$\alpha_i$ 是非负拉格朗日乘子,$N$ 是支持向量的数量。与 $\alpha_i > 0$ 对应的数据点 $x_{SV_i}$ 就是支持向量。核函数 $K(x, x_{SV_i})$ 可以隐式地计算非线性映射 $\Phi(x)$ 以及在映射空间中的后续标量乘法 $\Phi(x)^T \Phi(x_{SV_i})$,然后在这个高维特征空间中构建线性决策面。因此,SVM在参数空间中是线性分类器,但由于将输入模式空间非线性映射到高维特征空间,它成为了非线性分类器。
从上述公式可以看出
超级会员免费看
订阅专栏 解锁全文
1932

被折叠的 条评论
为什么被折叠?



