基于变分推理的自适应稀疏贝叶斯回归:实现更精准和稳健的RVM模型
1. 引言
在回归分析中,传统方法在处理多参数和含有异常值的数据时存在局限性。为了解决这些问题,我们提出了一种基于变分推理原理的核参数估计方法,旨在让相关向量机(RVM)在训练过程中优化这些参数,同时使用异方差和每个基函数的独立核参数,以获得更稳健和自适应的回归模型。
2. 相关向量机回顾
2.1 模型
假设给定训练数据 $(x_n, t_n) \in R^d \times R$,其中 $x_n$ 是解释变量,$t_n$ 是标量输出。在正常的RVM中,$t_n$ 的条件分布假设为:
$p(t_n|x_n, \sigma^2) = N(t_n|y(x_n), \sigma^2)$,$\sigma^2 \in R^+$
分布的均值是权重 $w = (w_0, w_1, \ldots, w_N)^T \in R^{N+1}$ 的线性组合:
$y(x_n) = \sum_{i=1}^{N} w_iK(x_n, x_i) + w_0 = \varphi(x_n)^T w$
这里,$\varphi(x_n) = (1, K(x_n, x_1), \ldots, K(x_n, x_N))^T$,核函数使用高斯核:
$K(x_n, x_i) = exp(-\gamma |x_n - x_i|^2)$,$\gamma \in R^+$
权重 $w$ 的先验分布是自动相关性确定(ARD)先验:
$p(w|\alpha) = \prod_{i=0}^{N} N(w_i|0, \alpha_i^{-1}) = N(w|0, A^{-1})$
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



