支持向量机(support vector machines)是一种二分类模型,属于监督学习算法。它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。
优化目标(Optimization Objective)
与逻辑回归和神经网络相比,支持向量机,或者简称SVM,在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。
接下来将从逻辑回归开始展示如何一点一点修改来得到本质上的支持向量机。




直观上对大间隔的理解(Large Margin Intuition)
人们有时将支持向量机看作是大间距分类器。



当画出这两条额外的蓝线,我们看到黑色的决策界和训练样本之间有更大的最短距离。然而粉线和蓝线离训练样本就非常近,在分离样本的时候就会比黑线表现差。因此,这个距离叫做支持向量机的间距,而这是支持向量机具有鲁棒性的原因,因为它努力用一个最大间距来分离样本。因此支持向量机有时被称为大间距分类器。
我们将这个大间距分类器中的正则化因子常数C设置的非常大,我记得我将其设置为了100000,因此对这样的一个数据集,也许我们将选择这样的决策界,从而最大间距地分离开正样本和负样本。那么在让代价函数最小化的过程中,我们希望找出在y=1和y=0两种情况下都使得代价函数中左边一项尽量为零的参数。如果我们找到了这样的参数,则我们的最小化问题便转变成:
min 1 2 ∑ j = 1 n θ j 2 \min \frac{1}{2} \sum_{j=1}^{n} \theta_{j}^{2} min2

最低0.47元/天 解锁文章
3546

被折叠的 条评论
为什么被折叠?



