机器学习算法:局部投影学习与高斯混合模型的变分学习
在机器学习领域,分类和聚类是两个重要的任务,不同的算法在性能、计算复杂度和鲁棒性等方面有着不同的表现。本文将介绍局部投影学习(LPL)以及基于熵的变分高斯混合模型学习方法,分析它们的特点并通过实验比较不同算法的性能。
局部投影学习(LPL)
原理
局部投影学习是对投影学习(PL)的一种改进,通过引入最近邻的局部化方法,提高了算法的可扩展性。LPL 有效的前提是核函数在特征空间中,当两个点距离较远时,核函数值趋近于零,例如径向基函数。同时,LPL 中的估计函数 $\hat{f}$ 会根据给定的数据 $x$ 发生变化。在 $\ell$ 较大时,$G_{K,X}$ 可能会出现奇异性问题,但 $G_{K,X_{kNN}}$ 在大多数情况下是非奇异的。与原始的 PL 相比,LPL 的主要优势在于计算成本的降低,虽然对于每个数据 $x$ 都需要计算 $k \times k$ 大小的 $G_{K,X_{kNN}}$ 的逆矩阵,但由于 $k$ 相对于 $\ell$ 非常小,所以计算成本可以忽略不计。
从性能上看,LPL 也可能比 PL 有一定的提升。考虑公式中的权衡关系,选择给定数据的 $k$ 个最近邻,与使用所有样本的情况相比,第一项(近似项)几乎保持不变,而第二项由于样本数量的减少而必然减小,从而实现更好的权衡。
与 SVM 和 PL 的比较
为了更好地理解 LPL 的特点,我们将其与支持向量机(SVM)和投影学习(PL)进行比较。在简化假设下,即所有训练样本都能以正间隔正确分类,并且 ${1} \subset H_{K}$,三种算法的优化准则如下:
-
局部投影学习与变分GMM
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



