Large Margin Classification
支持向量机(Support vector machine)通常用在机器学习 (Machine learning)。是一种监督式学习 (Supervised Learning)的方法,主要用在统计分类 (Classification)问题和回归分析 (Regression)问题上。
支持向量机属于一般化线性分类器,也可以被认为是提克洛夫规范化(Tikhonov Regularization)方法的一个特例。这族分类器的特点是他们能够同时最小化经验误差与最大化几何边缘区,因此支持向量机也被称为最大边缘区分类器。现在多简称为SVM。
先来回顾逻辑回归函数:
由图上可知:
Logistic Regression Cost Function:
ps:这是对于一个样本点的cost Function,所以没有除以m
左图:红色线描述的是新的代价函数的,记为 cost1(z)
右图:红色线描述的是新的代价函数的,记为 cost0(z)
这里的下标是指在代价函数中对应的 y=1 和 y=0 的情况
构建SVM的代价函数 J(θ) :
这个代价函数是由logistic regression变化过来的,只需将
同时乘以m,除以 λ 即可得到SVM的代价函数。
记
当C取非常大的值时,例如10000,就要求
当y=1时, W 只有前一项,为了使其为0,要求
当y=1时, W 只有后一项,为了使其为0,要求

本文详细介绍了支持向量机(SVM)作为大型边距分类器的工作原理,包括其优化目标、参数C的影响和核函数的数学背景。SVM通过最大化决策边界的间距来提高模型的鲁棒性。核函数是解决线性不可分问题的关键,例如高斯核函数(RBF)。在实践中,SVM的选择取决于数据集的规模和特征,与其他模型如逻辑回归和神经网络相比,SVM在特定情况下表现出优势。
最低0.47元/天 解锁文章
1259

被折叠的 条评论
为什么被折叠?



