18、机器学习中的核方法、贝叶斯方法与高斯过程

机器学习中的核方法、贝叶斯方法与高斯过程

1. 表示定理

表示定理给出了正则化成本函数最小化问题的一个重要性质。对于固定的非线性特征变换 $\varphi(x)$ 和待从训练数据 ${x_i, y_i} {i = 1}^n$ 中学习的参数 $\theta$,正则化成本函数为:
[
\frac{1}{n} \sum
{i = 1}^{n} L(y_i, \theta^T \varphi(x_i)) + h(|\theta|_2^2)
]
其中 $L(y, \hat{y})$ 是任意损失函数,$h: [0, \infty] \to \mathbb{R}$ 是严格单调递增函数。该定理表明,此正则化成本函数的每个最小化器 $\theta$ 都可以写成 $\theta = \Phi(X)^T \alpha$(等价地,$\hat{y}(x) = \alpha^T K(X, x^*)$),其中 $\alpha$ 是一个 $n$ 维向量。

证明过程如下:
对于给定的 $X$,任何 $\theta$ 都可以分解为两部分,一部分 $\Phi(X)^T \alpha$ 位于 $\Phi(X)$ 的行空间中,另一部分 $v$ 与 $\Phi(X)$ 的所有行 $\varphi(x_i)$ 正交,即 $\theta = \Phi(X)^T \alpha + v$。对于训练数据中的任意 $x_i$,有:
[
\hat{y}(x_i) = \theta^T \varphi(x_i) = (\Phi(X)^T \alpha + v)^T \varphi(x_i) = \alpha^T \Phi(X) \varphi(x_i) + v^T \

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值