SVM-SVC分类

本文详细介绍了支持向量机(SVM)的优势和局限性,包括其在二元分类、非线性处理及参数调优等方面的特点。通过手写数字识别问题展示了SVM的使用步骤,强调了C参数、核函数等关键参数的作用,并探讨了应对类不平衡问题的方法。最终,通过网格搜索确定最优C参数以提高模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SVM优点:

  1. 用于二元和多元分类器、回归和新奇性检测
  2. 良好的预测生成器,提供了鲁棒的过拟合、噪声数据和异常点处理
  3. 成功处理了涉及到很多变量的场景
  4. 当变量比样本还多是依旧有效
  5. 快速,即使样本量大于1万
  6. 自动检测数据的非线性,不用做变量变换

SVM缺点:

  1. 应用在二元分类表现最好,其他预测问题表现不是太好
  2. 变量比样例多很多的时候,有效性降低,需要使用其他方案,例如SGD方案
  3. 只提供预测结果,如果想要获取预测概率,需要额外方法去获取
  4. 如果想要最优结果,需要调参。

使用SVM预测模型的通用步骤

  1. 选择使用的SVM类
  2. 用数据训练模型
  3. 检查验证误差并作为基准线
  4. 为SVM参数尝试不同的值
  5. 检查验证误差是否改进
  6. 再次使用最优参数的数据来训练模型

SVM种类,用途和关键参数表

主要分为三类:1、分类 2、回归 3、异常检测

TIPs:SVM模块包含2个库:libsvm和liblinear,拟合模型时,python和这两个库有数据流,会消耗一部分内存。

如果内存足够,最好能够把SVM的cashe_size参数设置大

### SVM结合Huber损失函数的分类器 #### 原理概述 支持向量机(Support Vector Machine, SVM)是一种经典的监督学习算法,主要用于解决分类和回归问题。传统的SVM通常基于Hinge损失函数来构建分类模型[^3]。然而,在某些场景下,数据可能含有较多噪声或异常值,这可能导致传统SVM模型的效果下降。 Huber损失作为一种鲁棒性强的损失函数,能够有效地处理异常值的影响。其核心思想在于:当预测值与真实值之间的偏差较小时,采用平方误差;而当偏差较大时,则切换到线性误差模式。因此,将Huber损失引入SVM框架中,可以在一定程度上增强模型对异常值的容忍能力[^4]。 #### 数学表达形式 假设给定一组训练样本 \((\mathbf{x}_i, y_i)\),其中 \(y_i\) 是标签 (\(y_i \in \{-1, 1\}\)),则标准SVM的目标是最小化以下目标函数: \[ \min_{\mathbf{w}, b} \frac{1}{2} ||\mathbf{w}||^2 + C \sum_{i=1}^{n} \max(0, 1 - y_i(\mathbf{w}^\top \mathbf{x}_i + b)) \] 如果我们将Hinge损失替换为Huber损失,则新的目标函数变为: \[ \min_{\mathbf{w}, b} \frac{1}{2} ||\mathbf{w}||^2 + C \sum_{i=1}^{n} L_\text{huber}(y_i(\mathbf{w}^\top \mathbf{x}_i + b), 1) \] 其中,\(L_\text{huber}\) 的定义如下: \[ L_\text{huber}(z, t) = \begin{cases} \frac{1}{2}(t-z)^2 & \text{if } |t-z| \leq \delta \\ \delta (|t-z|-\frac{\delta}{2}) & \text{otherwise}, \end{cases} \] 这里,参数 \(\delta\) 控制着从二次项过渡到一次项的位置[^4]。 #### 实现方法 为了实现带有Huber损失的支持向量机,可以通过梯度下降法或其他数值优化技术求解上述目标函数。具体来说,可以利用Python中的`scikit-learn`库作为基础框架,并自定义损失函数部分。下面是一个简单的伪代码示例: ```python import numpy as np from sklearn.svm import SVC class HuberSVC(SVC): def __init__(self, delta=1.0, *args, **kwargs): super().__init__(*args, **kwargs) self.delta = delta def huber_loss(self, z, t): error = t - z is_small_error = np.abs(error) <= self.delta squared_loss = 0.5 * (error ** 2) linear_loss = self.delta * (np.abs(error) - 0.5 * self.delta) return np.where(is_small_error, squared_loss, linear_loss) def fit(self, X, y): # 自定义优化逻辑以适应Huber Loss pass ``` 需要注意的是,由于`scikit-learn`并不直接提供修改损失函数的功能,实际开发过程中可能需要借助更灵活的工具如TensorFlow或PyTorch来自定义整个流程[^4]。 #### 调优技巧 在使用SVM-Huber分类器时,有几个重要的超参数需要调整: 1. **正则化系数C**:控制模型复杂度与泛化能力间的平衡。 2. **核函数类型及参数**:选择合适的核函数(如RBF、多项式等),并调节对应的参数。 3. **Huber损失阈值δ**:决定何时由平方误差转换至绝对误差,需依据具体应用场景设定合理范围。 --- ### 问题
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值