高斯过程与支持向量机:平均场与留一法
在机器学习领域,高斯过程(Gaussian Processes, GP)和支持向量机(Support Vector Machines, SVM)是两种重要且紧密相关的方法。本文将深入探讨它们之间的关系,并介绍两种近似方法来解决在这两种方法学习过程中出现的计算问题。
1. 高斯过程与支持向量机的关系
高斯过程和支持向量机都是非参数方法。这意味着它们允许(至少对于某些核函数)调整无限多个参数,但随着数据量的增加,只有有限数量的参数是活跃的。这两种模型都可以看作是单层感知机的推广,其中感知机的每个输入节点计算机器原始输入的一个独特非线性特征。
支持向量机通过二次优化算法最大化正例和反例之间的间隔。简单的数学分析表明,所有权重只是输入特征向量的线性组合,因此这些组合中的系数是需要计算的新参数,其数量永远不会超过示例的数量。而且,在计算过程中不需要显式评估许多非线性特征向量,所有计算都可以通过核函数来表示,核函数是不同输入点处特征向量的内积。
从贝叶斯方法的角度来看,通过引入对感知机权重的先验分布,可以对问题进行正则化。如果先验分布是多元高斯分布(在最简单的情况下,只是单变量高斯分布的乘积),则单层感知机的激活函数就变成了高斯过程。实际上,支持向量机方法中使用的任何核函数都可以用作高斯过程方法的协方差函数,反之亦然。
2. 高斯过程分类
高斯过程为贝叶斯学习提供了一种自然的函数先验分布形式。考虑一个二进制分类器,其输出为 $g(x) = sgn f(x)$,其中 $f(x)$ 是输入点 $x$ 处的“激活”。在贝叶斯方法中,当已知示例数据时,关于 $f(x)$ 的所有信息都编码在激活函数的
超级会员免费看
订阅专栏 解锁全文
13

被折叠的 条评论
为什么被折叠?



