对SVC和SVR

本文主要介绍了SVC和SVR。SVC是支持分类机,用于二分类,找出分类面;SVR是支持回归机,用于曲线拟合和预测。还提及了C-SVC、v-SVC等不同类型的区别,以及SVC和SVR在目标函数、约束条件上的差异。最后总结了分类和回归的特点,SVM回归机引入了ε - 不敏感损失函数。

对SVC和SVR的理解

首先:

support vector classify(SVC)支持分类机做二分类的,找出分类面,解决分类问题

support vector regression(SCR)支持回归机做曲线拟合、函数回归 ,做预测,温度,天气,股票

这些都会用于数据挖掘、文本分类、语音识别、生物信息,具体问题具体分析

其中:

C-Support Vector Classication和v-Support Vector Classication区别:

C-SVC:参数C[0,无穷大]

v-SVC:使用参数v[0,1]用来控制支持向量的数量和训练错误。
One-class SVM是用来估计数据的分布的(Distribution Estimation)
e-Support Vector Regression。
v-Support Vector Regression增加了控制支持向量参数的参数

每个对应不同的Formulations

从目标函数和约束条件上的区别:

SVC:

 

SVR:

 

 

 

约束中松弛变量与惩罚项的关系。

 

最后总结:

分类是找一个平面,边界上点到平面的距离最远,回归是让每个点到回归线的距离最小。SVM 回归机引入一个 ε-不敏感损失函数作 为损失函数

 

转载于:https://www.cnblogs.com/ylHe/p/7676173.html

支持向量回归(SVR, Support Vector Regression)支持向量分类(SVC, Support Vector Classification)是Scikit-learn库中的两个重要工具,用于机器学习任务中的回归分类。它们都是基于核函数的支持向量机模型。 **主要区别**: 1. **任务类型**: - SVC 主要用于分类问题,通过找到最优的决策边界来区分不同类别的数据点。 - SVR 则专注于回归问题,它试图找到一个能够最好地预测连续变量的超平面或曲面。 2. **目标函数**: - SVC的目标是最大化类别间隔(margin),即决策边界的两侧距离最近的数据点之- SVR 目标是找到使得误差平方最小化的函数,同时还要求满足一定的间隔限制。 3. **参数选择**: - SVC 使用参数 `C` 来控制误分类点的影响程度(越大越保守,越小越冒险)。 - SVR 可能有额外的参数 `epsilon`,表示允许的误差范围,以及 `gamma` 控制核函数的宽度。 4. **性能指标**: - SVC 通常关注精确度、召回率等分类性能指标。 - SVR 更关心均方误差(MSE)或平均绝对误差(MAE)这类回归性能指标。 5. **实例应用**: - SVC 常见于文本分类、图像识别等领域。 - SVR 被用于预测连续性数值,如房价预测、股票价格预测等。 当你观察到对同一组输入得到完全相同的预测时,这可能意味着模型过于简单或过拟合,因为理想情况下,SVC SVR 应该根据输入的不同变化产生不同的预测结果。如果你的目的是区分不同输入,那么 SVC 可能更适合,因为它本质上是在寻找最佳分界线;而如果目标是预测数值,SVR 可能存在问题,需要调整参数以提高泛化能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值