1. SVM的原理是什么
svm是一种二分类模型,是一种在特征空间中寻找间隔最大化的分离超平面的线性分类器。
- 线性可分样本:可以通过硬间隔最大化学习线性分类器实现。
- 近似线性可分:通过引入松弛变量,通过软间隔最大化,学习线性分类器;
- 非线性样本:通过核技巧与软间隔最大化学习非线性支持向量机;
2. SVM为什么采用间隔最大化
利用间隔最大化求得的最优分离超平面是唯一的。分离超平面产生的分类结果是最鲁棒的,泛化能力最强。(采用其他策略可能得到的分类面有无数个,无法判断哪一个最优)
3. 函数间隔、几何间隔、点到超平面的距离
函数间隔:样本点到超平面的函数间隔为y*(w*x + b),可以用来表示分类预测的正确性及确信度。
几何间隔:为了防止函数间隔随超参数的等比例变化,对法向量w进行约束,即函数间隔除以w的L2范数,为y*(w*x + b)/||w||2。
点到超平面的距离为:(w*x + b) / ||w||2
4. SVM为什么要引入核函数?有哪些核函数?
当样本在原始空间线性不可分时,可将样本

本文详细探讨了支持向量机(SVM)的工作原理,包括其如何通过间隔最大化寻找最佳分离超平面,以及在非线性样本上的应用。SVM采用间隔最大化确保了分类的唯一性和鲁棒性,而核函数的引入解决了非线性可分问题,常见的核函数有RBF、多项式、线性及sigmoid。此外,文章还阐述了将原始问题转换为对偶问题的原因,以及SVM在实际应用中的优缺点。
最低0.47元/天 解锁文章

3970

被折叠的 条评论
为什么被折叠?



