多视图子空间学习:方法与应用
1. 多视图子空间学习基础
在多视图子空间学习中,设 $U_{D_z}$ 和 $V_{D_z}$ 是矩阵,其列分别为 $\Sigma_{11}^{-1} \Sigma_{12}\Sigma_{22}^{-1}$ 的前 $D_v$ 个左奇异向量和右奇异向量。那么 (3.5) 的解为 $(W_1, W_2) = (\Sigma_{11}^{-\frac{1}{2}} U_{D_z}, \Sigma_{22}^{-\frac{1}{2}} V_{D_z})$。
2. 典型相关分析及其扩展
2.1 核典型相关分析(KCCA)
经典的典型相关分析(CCA)假设潜在空间的表示是通过从原始特征空间的线性映射获得的,这种线性假设限制了潜在空间的表示能力。为解决这个问题,提出了几种非线性扩展,其中核典型相关分析(KCCA)是最广泛使用的方法之一。
2.1.1 从特征空间角度推导
首先,重写 CCA 的目标函数 (3.2)。假设数据是中心化的,在总体设置中,有 $\Sigma_{11} = X_1(X_1)^{\top}$,$\Sigma_{22} = X_2(X_2)^{\top}$ 和 $\Sigma_{12} = X_1(X_2)^{\top}$;在实践中,经验估计为 $\hat{\Sigma} {11} = X_1(X_1)^{\top}$,$\hat{\Sigma} {22} = X_2(X_2)^{\top}$ 和 $\hat{\Sigma} {12} = X_1(X_2)^{\top}$。线性映射 $w {v_i}$ 的参数可以重写为 $w_
多视图子空间学习方法解析
超级会员免费看
订阅专栏 解锁全文
2206

被折叠的 条评论
为什么被折叠?



