32、随机多尺度高斯核相关向量机:提升回归学习性能的新方法

随机多尺度高斯核相关向量机:提升回归学习性能的新方法

1. 引言

在机器学习领域,核方法一直是研究的热点,其中支持向量机(SVM)是最为人熟知的成员。核方法的主要特点是避免了为使线性学习算法能够学习非线性函数或决策边界所需的显式映射。通常,其泛化性能由核函数的选择决定,不同的核函数具有不同的学习能力。

当面临复杂的应用场景,如多任务学习时,单核的有限灵活性就需要通过多核学习(MKL)算法来弥补。然而,在以往的MKL研究中,基核的选择和优化算法的实现是两个难题。

另一方面,由于从各种传感器收集的样本数据可能会受到噪声或异常值的污染,鲁棒的数据建模技术在应用统计和机器学习领域受到了广泛关注。受贝叶斯方法的启发,Tipping提出了相关向量机(RVM)。RVM不是根据给定标准找到目标值的单点估计,而是定义了核函数组合权重的先验分布,并找到整个预测分布。但RVM同样基于单核,对于复杂数据,如非平稳或异质数据,其性能不佳。

为了解决这些问题,本文提出了基于随机多尺度高斯核的相关向量机(RMGK - RVM),它有机地结合了多核方法和贝叶斯框架。

2. 相关工作

考虑一个回归问题,给定数据 $D = {(x_i,t_i)|i = 1,\cdots,N}$,其中输入变量 $x_i \in X \subset R^d$,输出 $t_i \in T = [-M,M]$($M > 0$)。我们的目标是从预选择的假设函数空间 $H$ 中找到一个合适的模型来学习回归器 $\bar{t} = E_{t|x}[t]$,$x \in X$,假设 $D$ 中的样本是独立同分布的。

不同的 $H$ 选择本质上决定了不同的近似

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值