支持向量机(SVM)除了可以用于分类问题,也可以用于回归问题。

和SVM分类模型类似,SVM回归模型也可以对每个样本点
加入松弛变量
,但是我们这里使用的是绝对值,实际上是两个不等式,也就是说两边都需要松弛变量,我们定义为
,则SVM回归模型的损失函数度量在加入松弛变量之后变为:



和SVM分类模型一样,我们也可以用拉格朗日函数将目标优化函数变成无约束的形式,即:

接着再求拉格朗日乘子
的极大值,得到:
1) 解决高维特征的分类问题和回归问题很有效,在特征维度大于样本数时依然有很好的效果。
2) 仅仅使用一部分支持向量来做超平面的决策,无需依赖全部数据。
3) 有大量的核函数可以使用,从而可以很灵活的来解决各种非线性的分类回归问题。
4) 样本量不是海量数据的时候,分类准确率高,泛化能力强。
1) 如果特征维度远远大于样本数,则SVM表现一般。
2) SVM在样本量非常大,核函数映射维度非常高时,计算量过大,不太适合使用。
3)
非线性问题的核函数的选择没有通用标准,难以选择一个合适的核函数。
4)
SVM对缺失数据敏感。
转自 http://blog.sina.com.cn/s/blog_62970c250102xfzj.html
1. SVM回归模型的损失函数度量
对于回归模型,优化目标函数和分类模型保持一致,依然是
,但是约束条件不同。我们知道回归模型的目标是让训练集中的每个样本点
,尽量拟合到一个线性模型
上。对于一般的回归模型,我们是用均方误差作为损失函数的,但SVM不是这样定义损失函数的。



如下图所示,在蓝色带里面的点都是没有损失的,但是外面的点是有损失的,损失大小为红色线的长度。
总结一下,SVM回归模型的损失函数度量为:
2. SVM回归模型的目标函数的原始形式
前面我们已经得到了SVM回归模型的损失函数度量,现在可以定义目标函数了,如下所示:

和SVM分类模型类似,SVM回归模型也可以对每个样本点






和SVM分类模型一样,我们也可以用拉格朗日函数将目标优化函数变成无约束的形式,即:
3. SVM回归模型的目标函数的对偶形式
前面我们讲到了SVM回归模型的目标函数的原始形式,那么我们的目标是:

接着再求拉格朗日乘子

4. SVM回归模型系数的稀疏性
5. SVM算法小结
SVM算法是一个很优秀的算法,在集成学习和神经网络之类的算法没有表现出优越性能之前,SVM算法基本占据了分类模型的统治地位。目前在大数据时代的大样本背景下,SVM由于其在大样本时超级大的计算量,热度有所下降,但仍然是一个常用的机器学习算法。
SVM算法的主要优点有:
SVM算法的主要缺点有:
参考:http://www.cnblogs.com/pinard/p/6113120.html
</div>