SVM就是试图寻找能将训练样本区分开的最优划分超平面,直观上我们可以看出H3才是做好的,到样本两边距离相等且最大,,这里的最好是划分的超平面对训练样本的“容忍性”最好。。。
在样本空间中,划分的超平面可以用如下方程来描述:
W(T)x+b=0,
其中,w位法向量,决定里超平面的方向,b为位移项,决定了超平面与原点的距离。
我们这次使用的结果标签是y=-1,y=1,替换在logistic回归中使用的y=0和y=1。同时将
替换成w和b。以前的
,其中认为
。现在我们替换为b,后面替换
为
(即
)。这样,我们让
,进一步
。也就是说除了y由y=0变为y=-1,只是标记不同外,别的与logistic回归的形式化表示没区别。
替换成w和b。以前的
,其中认为
。现在我们替换为b,后面替换
为
(即
)。这样,我们让
,进一步
。也就是说除了y由y=0变为y=-1,只是标记不同外,别的与logistic回归的形式化表示没区别。
再明确下假设函数
上面提到过我们只需考虑
的正负问题,而不用关心g(z),因此我们这里将g(z)做一个简化,将其简单映射到y=-1和y=1上。映射关系如下:
的正负问题,而不用关心g(z),因此我们这里将g(z)做一个简化,将其简单映射到y=-1和y=1上。映射关系如下:
样本空间中任意点x到超平面的(W,b)的距离可以写为:

本文深入探讨了支持向量机(SVM)的理论,包括硬间隔和软间隔的概念。在硬间隔中,目标是找到最大间隔的超平面以无噪声地划分数据。而在软间隔中,考虑到现实世界中的噪声,通过引入损失函数来容忍一定程度的误分类。文章介绍了如何通过优化问题寻找最大几何间隔的超平面,并强调了支持向量在SVM中的关键作用。此外,还提供了SVM在Python中的实现思路。




最低0.47元/天 解锁文章
4014

被折叠的 条评论
为什么被折叠?



