SVM(2)-- Kernel

本文介绍了支持向量机(SVM)中的核技巧(kernel trick),解释了如何通过核函数避免在高维空间直接计算内积,从而实现非线性分类。讨论了Mercer定理的应用,并列举了几种常用的核函数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对于非线性分类,SVM一般有两种选择:
1. 容忍错误分类,即引入soft margin
2. 利用kernel trick,对input space做feature expansion,形成feature space,即把数据映射到高维中去。
这里谈谈kernel。

核技巧(kernel trick):

学习是隐式地在特征空间下进行的,不需要显式地定义特征空间(feature space)和映射函数(ϕ),这样的技巧称为核技巧。

在线性可分支持向量机的对偶问题中,无论是目标函数还是决策函数都只涉及输入样本与样本之间的内积,从头到尾都是在做内积运算。如果为了让数据线性可分,将数据映射到高维的特征空间,在特征空间计算内积就很麻烦了,而且也没有必要。

minα(12i=1mj=1mαiαjyiyjϕ(xi)ϕ(xj)i=1mαi)

这个时候有个定理出现了,叫Mercer Theorem
这个定理说明:那些原始维度的内积转换到高维空间的内积就等于把数据带入核函数的结果。即K(xi,xj)=ϕ(xi)ϕ(xj)

将内积用核函数代替。
对偶问题的目标函数转化成:

minα(12i=1mj=1mαiαjyiyjK(xi,xj)i=1mαi)
s.t.i=1mαiyi=0
αi0,i=1,2,...,m

如果我已知了一个核函数K(x,z),我就不需要构造映射函数ϕ(x).

小结:经过映射函数ϕ将原来的input space变换到一个新的feature space,将输入空间的内积变换为特征空间中的内积ϕ(xi)ϕ(xj),在新的feature space中学习线性SVM。当映射函数ϕ是非线性函数时,学习到的还有核函数的SVM是非线性的分类模型。而在具体计算ϕ(xi)ϕ(xj)的时候以核函数的计算结果K(xi,xj)取而代之。不需要在高维空间进行计算,也不需要知道映射函数具体是什么。

函数K(x,z)满足什么条件才能成为核函数?

通常所说的核函数就是正定核函数,正定核函数的充要条件是K(x,z)对应的Gram矩阵K=[K(xi,xj)]m×m是半正定矩阵。
任何一个核函数都定义了一个再生核希尔伯特空间(Reproducing Kernel Hilbert Space, RKHS)。

常用核函数:

这里写图片描述
1. 线性核:主要用于线性可分的情况,参数少,速度快。
2. 多项式核
3. 高斯核函数(RBF):主要用于线性不可分的情况,参数多,分类结果非常依赖参数。
4. Sigmoid核函数

内容概要:该论文聚焦于T2WI核磁共振图像超分辨率问题,提出了一种利用T1WI模态作为辅助信息的跨模态解决方案。其主要贡献包括:提出基于高频信息约束的网络框架,通过主干特征提取分支和高频结构先验建模分支结合Transformer模块和注意力机制有效重建高频细节;设计渐进式特征匹配融合框架,采用多阶段相似特征匹配算法提高匹配鲁棒性;引入模型量化技术降低推理资源需求。实验结果表明,该方法不仅提高了超分辨率性能,还保持了图像质量。 适合人群:从事医学图像处理、计算机视觉领域的研究人员和工程师,尤其是对核磁共振图像超分辨率感兴趣的学者和技术开发者。 使用场景及目标:①适用于需要提升T2WI核磁共振图像分辨率的应用场景;②目标是通过跨模态信息融合提高图像质量,解决传统单模态方法难以克服的高频细节丢失问题;③为临床诊断提供更高质量的影像资料,帮助医生更准确地识别病灶。 其他说明:论文不仅提供了详细的网络架构设计与实现代码,还深入探讨了跨模态噪声的本质、高频信息约束的实现方式以及渐进式特征匹配的具体过程。此外,作者还对模型进行了量化处理,使得该方法可以在资源受限环境下高效运行。阅读时应重点关注论文中提到的技术创新点及其背后的原理,理解如何通过跨模态信息融合提升图像重建效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值