学习笔记二十五:支持向量机-核函数

1. 基本概念

1.1 为什么需要核函数

在实际任务中,训练样本往往在原始样本空间中线性不可分。例如经典的异或问题,在二维空间中无法用一条直线将两类样本分开。

解决方案:将样本从原始空间映射到更高维的特征空间,使得样本在特征空间中线性可分。

核心思想

  • 在低维空间中非线性可分的数据,映射到高维空间后可能变得线性可分
  • 如果原始空间是有限维的,总能找到一个高维特征空间使样本线性可分

1.2 核函数的定义

问题:在特征空间中求解SVM需要计算映射后样本的内积 ϕ(xi)Tϕ(xj)\phi(x_i)^T \phi(x_j)ϕ(xi)Tϕ(xj)。当特征空间维数很高甚至无穷维时,直接计算非常困难。

核函数的作用
核函数 κ(xi,xj)\kappa(x_i, x_j)κ(xi,xj) 是一个函数,使得:

κ(xi,xj)=ϕ(xi)Tϕ(xj)\kappa(x_i, x_j) = \phi(x_i)^T \phi(x_j)κ(xi,xj)=ϕ(xi)Tϕ(xj)

即:样本在特征空间的内积等于它们在原始样本空间中通过核函数计算的结果。

核技巧(Kernel Trick)
有了核函数,我们就不必直接计算高维甚至无穷维特征空间中的内积,只需在原始空间中计算核函数的值即可。

1.3 核函数的优势

  1. 计算效率:避免在高维特征空间中直接计算,大大降低计算复杂度
  2. 隐式映射:不需要知道映射函数 ϕ(⋅)\phi(\cdot)ϕ() 的具体形式,只需选择合适的核函数
  3. 灵活性:可以处理非线性问题,同时保持线性分类器的计算效率

2. 核函数方法

2.1 核函数的判定条件

定理:一个对称函数 κ(⋅,⋅)\kappa(\cdot, \cdot)κ(,) 是核函数,当且仅当对于任意数据,其对应的核矩阵(kernel matrix)总是半正定的。

核矩阵:由所有样本对的核函数值组成的矩阵。

意义

  • 只要核矩阵半正定,就能作为核函数使用
  • 任何一个核函数都隐式地定义了一个称为再生核希尔伯特空间(RKHS)的特征空间

2.2 常用核函数

1. 线性核(Linear Kernel)

κ(xi,xj)=xiTxj\kappa(x_i, x_j) = x_i^T x_jκ(xi,xj)=xiTxj

  • 特点:相当于不使用核函数,直接在原始空间进行分类
  • 适用场景:数据本身线性可分或近似线性可分

2. 多项式核(Polynomial Kernel)

κ(xi,xj)=(xiTxj)d\kappa(x_i, x_j) = (x_i^T x_j)^dκ(xi,xj)=(xiTxj)d

  • 参数d≥1d \ge 1d1 为多项式的次数
  • 特点:适合处理非线性问题,次数越高,模型越复杂
  • 适用场景:需要非线性分类但数据分布相对简单

3. 高斯核(Gaussian Kernel,RBF核)

κ(xi,xj)=exp⁡(−∣∣xi−xj∣∣22σ2)\kappa(x_i, x_j) = \exp\left(-\frac{||x_i - x_j||^2}{2\sigma^2}\right)κ(xi,xj)=exp(2σ2∣∣xixj2)

  • 参数σ>0\sigma > 0σ>0 为高斯核的带宽
  • 特点:将样本映射到无穷维特征空间,具有很强的非线性拟合能力
  • 适用场景:数据分布复杂,需要强非线性分类能力
  • 注意σ\sigmaσ 的选择很重要,过小容易过拟合,过大容易欠拟合

4. 拉普拉斯核(Laplacian Kernel)

κ(xi,xj)=exp⁡(−∣∣xi−xj∣∣σ)\kappa(x_i, x_j) = \exp\left(-\frac{||x_i - x_j||}{\sigma}\right)κ(xi,xj)=exp(σ∣∣xixj∣∣)

  • 参数σ>0\sigma > 0σ>0
  • 特点:与高斯核类似,但使用L1距离而非L2距离
  • 适用场景:对异常值更鲁棒的情况

5. Sigmoid核

κ(xi,xj)=tanh⁡(βxiTxj+θ)\kappa(x_i, x_j) = \tanh(\beta x_i^T x_j + \theta)κ(xi,xj)=tanh(βxiTxj+θ)

  • 参数β>0,θ<0\beta > 0, \theta < 0β>0,θ<0
  • 特点:在某些条件下等价于多层感知机
  • 适用场景:需要神经网络式非线性映射的情况

2.3 核函数的组合

核函数可以通过函数组合得到新的核函数:

  • 线性组合:若 κ1\kappa_1κ1κ2\kappa_2κ2 为核函数,则对于任意正数 γ1,γ2\gamma_1, \gamma_2γ1,γ2,其线性组合 γ1κ1+γ2κ2\gamma_1 \kappa_1 + \gamma_2 \kappa_2γ1κ1+γ2κ2 也是核函数
  • 直积:若 κ1\kappa_1κ1κ2\kappa_2κ2 为核函数,则其直积 κ1⊗κ2(x,z)=κ1(x,z)κ2(x,z)\kappa_1 \otimes \kappa_2(x, z) = \kappa_1(x, z)\kappa_2(x, z)κ1κ2(x,z)=κ1(x,z)κ2(x,z) 也是核函数
  • 缩放:若 κ1\kappa_1κ1 为核函数,则对于任意函数 g(x)g(x)g(x)κ(x,z)=g(x)κ1(x,z)g(z)\kappa(x, z) = g(x)\kappa_1(x, z)g(z)κ(x,z)=g(x)κ1(x,z)g(z) 也是核函数

3. 核函数选择

3.1 核函数选择的重要性

关键问题

  • 在不知道特征映射形式时,我们并不知道什么样的核函数是合适的
  • 核函数仅隐式地定义特征空间
  • 核函数选择成为支持向量机的最大变数

影响

  • 若核函数选择不合适,意味着将样本映射到了不合适的特征空间
  • 很可能导致性能不佳

3.2 核函数选择策略

1. 根据数据特点选择

  • 线性可分或近似线性可分:使用线性核
  • 数据分布复杂:使用高斯核
  • 需要中等复杂度:使用多项式核

2. 根据问题规模选择

  • 样本量大:优先考虑线性核(计算效率高)
  • 样本量小:可以使用复杂核函数(如高斯核)

3. 参数调优

  • 高斯核的 σ\sigmaσ:需要通过交叉验证等方法调优
  • 多项式核的 ddd:需要平衡模型复杂度和拟合能力

4. 实际应用建议

  • 通常从高斯核开始尝试(适用面广)
  • 如果效果不好,再尝试其他核函数
  • 可以通过核函数组合来构造更复杂的核函数

4. 总结

核函数的核心价值

  1. 解决非线性问题:通过将数据映射到高维特征空间,使非线性问题转化为线性问题
  2. 计算效率:避免在高维空间中直接计算,通过核技巧在原始空间中计算
  3. 灵活性:不需要知道映射函数的具体形式,只需选择合适的核函数

常用核函数的特点

  • 线性核:简单高效,适合线性可分数据
  • 多项式核:中等复杂度,适合中等非线性问题
  • 高斯核:强非线性能力,适合复杂数据分布,但需要仔细调参
  • 拉普拉斯核:对异常值更鲁棒
  • Sigmoid核:具有神经网络特性

核函数选择的挑战

  • 核函数选择是SVM的最大变数
  • 需要根据数据特点、问题规模和实际效果来选择
  • 参数调优对性能影响很大,需要通过实验确定

实际应用

  • 核函数使SVM能够处理复杂的非线性分类问题
  • 在实际应用中,高斯核(RBF核)是最常用的选择
  • 核函数的选择和参数调优是SVM应用中的关键步骤
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

LO嘉嘉VE

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值