其实SVM在去年的时候就接触到了,只是一直都属于模模糊糊的状态,最近跟着老板一起上机器学习的课,有种豁然开朗的感觉,于是乘机写下这篇博客。
每个算法都有一个优化的准则,SVM也不例外,他运用的是最大化margin的准则,如图所示:
这么多的红线都可以将样本分类,但是哪一条更好了,这就依赖于我们选取的准则。最大化magin的目标如上图2,使两类样本到分类面的距离尽可能的大。
说到距离,就要提到SVM里面用到的两个距离的概念:函数距离,几何距离。几何距离很直观,也就是我们上面说的margin,即点到直线的距离。根据点到直线的距离公式,得到
几何距离为下图1,函数距离为下图2。
下面要说一下这两个公式的性质

本文介绍了支持向量机(SVM)算法的基本原理,重点解析了SVM如何通过最大化间隔(margin)来优化分类模型,并详细探讨了函数距离与几何距离的区别。通过拉格朗日乘数法和KKT条件,阐述了SVM的对偶优化问题,展示了从原始问题到对偶问题的转换过程,解释了为何该算法被称为“支持向量机”。
最低0.47元/天 解锁文章
3806

被折叠的 条评论
为什么被折叠?



