稀疏核特征分析(Sparse KFA)算法详解
1. 引言
稀疏核特征分析(Sparse KFA)是一种在满足 $\ell_1$ 约束条件下最大化方差的特征提取算法。在实际应用中,我们需要解决该算法中的优化问题。虽然监督学习和无监督学习的设置在表面上相似,但它们所产生的算法却有很大不同。这是因为监督学习问题通常是一个凸最小化问题,而无监督学习问题则需要进行凸最大化。
2. 最大搜索求解法
根据相关定理,凸最大化问题的可行性在很大程度上取决于集合 $F$ 的极值点。只有当 $F$ 的极值点集合较小且易于计算时,优化问题才能有效求解。否则,只能对 $F$ 的极值点进行暴力搜索(这可能是一个 NP 难问题)来得到最大值。这实际上将实际有用的约束集 $F$ 的选择限制在了 $F_{LP}$ 和 $F_p$(其中 $p \leq 1$)上。这两个集合的极值点是重合的,其表达式为:
[
\text{Extreme Points } (F_{LP}): {\pm k(x_i, x)}_{i \in [m]}
]
由此我们得到如下推论:
推论 14.3(核特征分析的顶点解)
:如果函数 $f$ 和 $-f$ 通常产生相同的 $Q$ 值,且 $p \leq 1$,则有
[
f_1 = \arg\max_{f \in F_p} Q(f(x_1), \cdots, f(x_m))
]
[
= \arg\max_{f \in F_{LP}} Q(f(x_1), \cdots, f(x_m))
]
[
= \arg\max_{f \in {\pm k(x_1, \cdot), \cdots, \pm k(x_m, \cdot)}} Q(f(x_1), \cdots, f(x_m))
]
在上述对称假设下,我们可以只分析正象限。图 1 展示了对应不同范数的单位球形状。
图 1:不同范数下的单位球形状
方程 $(14.37)$ 为我们提供了一个简单的算法来解决特征提取问题:只需寻找使 $Q(k(x_i, x_1), \cdots, k(x_i, x_m))$ 取得最大值的核函数 $k(x_i, \cdot)$。
3. 顺序分解法
当找到第一个感兴趣的方向(或函数)后,我们需要考虑如何继续寻找后续的方向。我们用 $F_i$ 表示第 $i$ 轮选择方向的空间,特别地,$F_1 = F$。为了简化问题,我们采用基函数的点积表示 $f(x) = \langle v, \Phi(x) \rangle$,其中 $\Phi_i^j$ 表示张成该空间的向量,初始时 $\Phi_1^j = \Phi(x_j)$。除非另有说明,我们主要关注 $F_{LP}$,对系数采用 1 - 范数。因此,$F_i$ 的表达式为:
[
F_i = \left{ w \left| w = \sum_{j = 1}^{m} \beta_i^j \Phi_i^j, \sum_{j = 1}^{m} |\beta_i^j| \leq 1 \right. \right}
]
我们有以下三种可能的选择:
-
移除法
:简单地从可能的方向集合中移除对应的向量 $\Phi_i^j = \Phi(x_j)$(保持其他方向不变),然后重复该过程以找到下一个向量 $v_{i + 1}$。但这种方法可能会导致许多非常相似的“主”方向,这些方向可能各自都有一定的意义,但它们所提供的额外信息却很少。不过,一旦计算出所有的 $Q$ 值,后续计算的成本非常低(只需进行简单的排序操作)。
-
非归一化投影法
:要求每个方向 $v_i$ 与所有先前的方向正交,即 $\langle v_i, v_j \rangle = 0$ 对于所有 $i \neq j$。实现这一点的最简单方法是将 $F_{i - 1}$ 中所有向量相对于 $v_i$ 进行正交化,公式为:
[
\Phi_{i - 1}^j := \Phi_i^j - \frac{v_i}{|v_i|^2} \langle \Phi_i^j, v_i \rangle
]
与移除法类似,这种方法也会使 $F_{i - 1}$ 中张成向量的集合减少一个。计算前 $p$ 个主特征仅涉及 $p$ 个核函数。由于 $\Phi_i^j$ 不一定在 $F_1$ 中(展开系数 $\beta$ 的和不再包含在 $\ell_p$ 单位球内),我们称这种方法为非归一化核特征分析。
-
归一化投影法
:通过将 $\Phi_i^j$ 的展开系数归一化为具有单位 $p$ - 范数,可以得到该算法的另一个版本。由于目前暂不使用该版本,具体细节可参考相关文献。
在后续内容中,我们仅考虑非归一化投影法。这样,我们得到了一个稀疏 KFA 算法,对于新数据计算 $p$ 个特征只需要 $O(pm)$ 次操作。然而,提取主方向本身每个特征提取器需要 $O(m^2)$ 次操作,这与核主成分分析(Kernel PCA)的情况类似。这是因为找到具有最大 $Q$ 值的方向仍然需要计算所有可能投影方向与实际待分析模式之间的所有点积。
4. 概率加速法
在计算所有可能方向的 $Q$ 值时,由于我们最终只选择其中一个方向,这会造成计算资源的浪费。因此,我们可以在计算过程中提前终止那些看起来不太有希望的方向的计算。但在这样做时,我们必须确保重要方向丢失的可能性较低。相关文献中使用推论 6.34 来推导所产生误差的概率界限。这导致了一种通过只对一半项求和来近似计算的方法。采用分治法,类似于快速傅里叶变换,计算单个函数的计算成本可以降低到 $O(m \log m)$,这相比于核主成分分析的 $O(m^2)$ 成本有了显著的改进。
5. 分位数技巧
我们可能并不需要找到最好的 $n$ 个特征提取器,而是满足于那些在可获得的特征提取器中处于较好水平的。例如,对于预处理目的,每个特征在可获得的特征中处于前 5% 可能就足够了。这引出了另一种避免对所有 $m$ 个可能方向进行搜索的方法:计算 $\tilde{m}$ 个方向的子样本,并选择其中 $Q$ 值最大的方向。相关研究表明,这种子采样方法平均可以得到处于 $\frac{\tilde{m}}{\tilde{m} + 1}$ 分位数范围内的值。而且,定理 6.33 表明,一个大小为 59 的子集就足以以 95% 的概率得到处于 95% 分位数范围内的结果。总体而言,提取单个特征的计算复杂度降低到了 $O(cm)$,而不是 $O(m^2)$。内存需求也相应降低,因为我们不再需要事先计算整个矩阵 $K$。因此,除非需要最好的特征提取器,否则这种方法应该是首选。
6. 理论分析
虽然由于篇幅限制,我们没有对该算法进行统计分析,但相关文献中对其进行了基于容量概念(如覆盖数)的简要分析。基本思想是,由于使用了诸如 $|w|^2$ 这样的正则化项,可以给出特征提取器可靠性的一致收敛界限。换句话说,可以推导出特征提取器在训练集和测试集上的方差差异的界限。
7. KFA 实验
我们再次考虑由三个人工高斯数据簇组成的玩具示例。KFA 的随机分位数版本所得到的特征提取器与核主成分分析的结果非常相似,但计算速度明显更快。主要的区别在于前几个特征。例如,KFA 对于第一个特征只使用一个基函数,这使得特征提取器位于三个簇中的一个上;而核主成分分析的第一个特征已经包含了所有基函数的贡献。在所有情况下,这些特征都是有意义的,它们揭示了数据集中的非平凡结构。前几个特征识别出了数据集中的簇结构,而高阶特征则更详细地分析了各个簇。
为了观察稀疏 KFA 在真实数据上的效果,我们在 MNIST 手写数字数据集上进行了一个小实验。我们发现,几乎所有数字都出现在前 10 个基核中,并且数字“1”的各种副本之间重叠较少,因此在与高斯径向基函数(RBF)核进行比较时,它们近似正交。
8. 总结
核主成分分析(Kernel PCA)是经典主成分分析(PCA)算法的核推广,它是在高维特征空间中执行 PCA 的一种优雅方法,并且可以在有限时间内通过简单的矩阵对角化得到较好的结果。我们指出了它与支持向量机(SVM)在有效使用的正则化器方面的一些相似之处,并报告了其在非线性特征提取应用中的实验结果。
线性 PCA 在许多技术和科学应用中都有广泛的应用,包括降噪、密度估计以及图像索引和检索系统等。核 PCA 可以应用于传统 PCA 用于特征提取且非线性扩展有意义的所有领域。然而,核 PCA 存在一些计算问题,这使得我们需要考虑替代方法,特别是在样本量太大而无法进行核矩阵对角化的情况下。
基于此,我们介绍了 KFA,这是一种利用稀疏正则化器的改进方法。如果对比度函数本身是凸的,KFA 的解可以在约束集的极值点上找到。特别是当约束形成一个多面体时,极值点可以在顶点上找到,这将一个潜在复杂的优化问题简化为对一个大小为 $m$ 的有限集进行最大搜索。随机子集选择方法有助于将算法的速度提高到每个特征提取器的线性成本和恒定内存需求。
我们解释了核 PCA 和 KFA 以及经典方法(如投影追踪)如何被理解为一般特征提取框架的特殊情况,即在容量约束下最大化对比度函数。这种约束可以是稀疏性约束、特征空间向量长度约束或其他限制,如导数的大小。
9. 问题讨论
以下是一些相关的问题,供读者进一步思考和研究:
1.
协方差矩阵的正定性
:证明协方差矩阵 $(14.1)$ 是正定的。
2.
玩具示例
:下载核 PCA 的 Matlab 代码并在两个通过输入空间平移相关的玩具数据集上运行,解释为什么结果相同。
3.
原像问题
:讨论核 PCA 只能计算特征值而不能明确计算特征向量本身的原因,以及这对技术应用的影响。
4.
核 PCA 的零空间
:讨论核 PCA 在 $\mathcal{H}$ 中具有特征值为 0 的特征向量的数量,并与输入空间中的 PCA 进行比较。
5.
中心化问题
:推导数据在 $\mathcal{H}$ 中均值不为零时核 PCA 的方程。
6.
KPCA 解决方案的扩展
:证明中心化数据的特征值问题的每个解也可以用原始映射模式进行展开,并推导相应的对偶特征值问题。
7.
特征空间中的显式 PCA
:讨论在什么条件下,通过非线性映射 $\Phi$ 将所有数据点显式映射到特征空间 $\mathcal{H}$ 的非线性 PCA 算法比核方法更可取,并说明核 PCA 实际上总是在 $\mathcal{H}$ 的有限维子空间中工作。
8.
核 PCA 特征映射
:证明在一定条件下,特征映射 $(2.59)$ 满足特定的等式,并讨论更一般情况下的特征映射以及如何通过丢弃较小的特征值来获得更低维的近似特征映射。
9.
核 PCA 的 VC 界限
:构建核 PCA 的 VC 理论,给出核 PCA 特征提取器在测试集上的方差与训练集上的方差、相应特征值的大小以及核诱导函数类的覆盖数之间的界限。
10.
KPCA 与 SVM 的联系
:根据 PCA 的已知性质证明相关命题。
11.
变换不变性
:考虑一个由 $t$ 参数化的变换 $\tau_t$,通过对切向量的协方差矩阵进行 PCA 来推导不变特征提取器,并注意不变特征提取器的特征值和特征向量的相关问题。
12.
变换不变性的扩展
:扩展上述方法,同时实现对 $\tau_t$ 的不变性和在原始核 PCA 方向上的方差。
13.
中心化协方差矩阵的奇异性
:证明如果 $\mathbf{\alpha}_k$ 是中心化协方差矩阵的非零特征值对应的特征向量,则 $\sum_i \alpha_k^i = 0$,并说明这意味着中心化协方差矩阵是奇异的。
14.
原问题和对偶特征值问题
:证明 $(14.12)$ 能得到 $(14.7)$ 的所有解。
15.
多层支持向量机
:通过先提取非线性主成分,然后训练支持向量机,构建具有额外层的支持向量类型的机器,并讨论其架构和不同层的训练方法。
16.
机械类比
:尝试将将 PCA 解释为迭代弹簧能量最小化过程的机械 PCA 算法推广到特征空间设置,并考虑如何在 PCA 中考虑负数据。
17.
核 PCA 与局部线性嵌入(LLE)
:证明相关核函数的正定性,并说明核 PCA 使用 LLE 核可以提供 LLE 嵌入系数,同时讨论使用中心化 Gram 矩阵的 LLE 变体以及 LLE 核作为相似性度量的解释。
18.
PCA 的最优逼近性质
:讨论 KFA 的解是否满足 PCA 的最优逼近性质。
19.
尺度不变性
:证明核 PCA 和稀疏核特征分析问题是尺度不变的,并分析在特征空间和输入空间中进行数据重缩放的情况,以及特定核函数的表现。
20.
投影追踪的对比度函数
:计算 $q(\xi) = \xi^4$ 在单位方差正态分布下的期望,并讨论使用不同分布时的情况,尝试找到在处理零均值和单位方差密度时的最优函数 $q(\xi)$。
21.
切割平面与 $F_p$
:计算通过用向量 $\Phi(x_i)$ 正交切割 $F_1$ 得到的多面体集的顶点,并讨论将 $F_1$ 替换为 $F_p$ 时的情况,以及每次切割后每个顶点所需的 $\Phi(x_j)$ 数量的变化。
22.
原像问题
:利用相关方法为稀疏核特征分析设计去噪算法。
23.
核 PCA 与稀疏 KFA 的比较
:绘制核 PCA 和稀疏 KFA 投影的方差图,讨论它们的相似性和差异,并解释为什么稀疏 KFA 的方差随投影索引的衰减更慢。
24.
扩展到一般核
:尝试将稀疏特征提取算法扩展到非正定的核,讨论替代特征空间正交性的标准以及算法是否保留其良好的数值特性。
25.
一致收敛界限
:证明 $Q[f]$ 的期望值与其经验估计值之间偏差的界限。
稀疏核特征分析(Sparse KFA)算法详解
9. 问题讨论(续)
下面继续对相关问题进行深入探讨,这些问题有助于更全面地理解核主成分分析(Kernel PCA)和稀疏核特征分析(Sparse KFA)。
| 问题编号 | 问题描述 |
|---|---|
| 1. 协方差矩阵的正定性 | 要证明协方差矩阵 $(14.1)$ 是正定的,需验证定义 2.4 中的条件。这意味着要确保对于任意非零向量 $\mathbf{z}$,都有 $\mathbf{z}^T\mathbf{C}\mathbf{z} > 0$,其中 $\mathbf{C}$ 为协方差矩阵。通过验证该条件,可得出其所有特征值均为非负。 |
| 2. 玩具示例 | 从指定网址下载核 PCA 的 Matlab 代码,在两个通过输入空间平移相关的玩具数据集上运行。由于核 PCA 主要关注数据点之间的相对关系,平移操作不改变数据点之间的相对位置和距离,所以结果相同。 |
| 3. 原像问题 | 与输入空间中的 PCA 不同,核 PCA 只能计算特征值,无法明确得到特征向量本身。这是因为核 PCA 是在高维特征空间中进行计算,特征向量的维度可能非常高甚至无穷维,难以直接表示。这导致在某些需要明确特征向量的应用场景中,核 PCA 的适用性受到限制。 |
| 4. 核 PCA 的零空间 | 讨论核 PCA 在 $\mathcal{H}$ 中具有特征值为 0 的特征向量的数量。与输入空间中的 PCA 相比,核 PCA 的零空间情况更为复杂,因为它涉及到核函数的映射和特征空间的性质。 |
| 5. 中心化问题 | 对于数据在 $\mathcal{H}$ 中均值不为零的情况,推导核 PCA 的方程。可通过对数据进行中心化处理,即令 $\tilde{\Phi}(x_i) = \Phi(x_i) - \frac{1}{m}\sum_{i = 1}^{m}\Phi(x_i)$,然后在新的空间中进行特征值问题的推导。 |
| 6. KPCA 解决方案的扩展 | 证明中心化数据的特征值问题的每个解也可以用原始映射模式进行展开。通过推导相应的对偶特征值问题,可比较其与原特征值问题的差异。 |
| 7. 特征空间中的显式 PCA | 讨论在何种条件下,通过非线性映射 $\Phi$ 将所有数据点显式映射到特征空间 $\mathcal{H}$ 的非线性 PCA 算法比核方法更可取。虽然核 PCA 实际上总是在 $\mathcal{H}$ 的有限维子空间中工作,但在某些情况下,显式映射可能更便于分析和解释。 |
| 8. 核 PCA 特征映射 | 证明在一定条件下,特征映射 $(2.59)$ 满足 $\langle \Phi_w^m(x), \Phi_w^m(x’) \rangle = \langle \Phi_{KPCA}(x), \Phi_{KPCA}(x’) \rangle$。在更一般的情况下,当部分特征值为 0 时,可通过丢弃较小的特征值来获得更低维的近似特征映射。 |
| 9. 核 PCA 的 VC 界限 | 构建核 PCA 的 VC 理论,给出核 PCA 特征提取器在测试集上的方差与训练集上的方差、相应特征值的大小以及核诱导函数类的覆盖数之间的界限。这有助于评估核 PCA 模型的泛化能力。 |
| 10. KPCA 与 SVM 的联系 | 根据 PCA 的已知性质证明相关命题,揭示核 PCA 与支持向量机(SVM)在正则化器使用等方面的联系。 |
| 11. 变换不变性 | 考虑一个由 $t$ 参数化的变换 $\tau_t$,如沿 $x$ 轴的平移。通过对切向量的协方差矩阵进行 PCA 来推导不变特征提取器。但需注意不变特征提取器的特征值和特征向量的相关问题,例如特征值为 0 的特征向量不一定在映射示例的张成空间中。 |
| 12. 变换不变性的扩展 | 扩展上述方法,同时实现对 $\tau_t$ 的不变性和在原始核 PCA 方向上的方差。可通过制定同时对角化的问题来解决。 |
| 13. 中心化协方差矩阵的奇异性 | 证明如果 $\mathbf{\alpha}_k$ 是中心化协方差矩阵的非零特征值对应的特征向量,则 $\sum_i \alpha_k^i = 0$。这意味着中心化协方差矩阵是奇异的,因为其列向量之间存在线性相关性。 |
| 14. 原问题和对偶特征值问题 | 证明 $(14.12)$ 能得到 $(14.7)$ 的所有解。可通过分析解的性质和向量空间的关系来完成证明。 |
| 15. 多层支持向量机 | 通过先提取非线性主成分,然后训练支持向量机,构建具有额外层的支持向量类型的机器。讨论其架构和不同层的训练方法,例如可以采用逐层训练或联合训练的方式。 |
| 16. 机械类比 | 尝试将将 PCA 解释为迭代弹簧能量最小化过程的机械 PCA 算法推广到特征空间设置。同时考虑如何在 PCA 中考虑负数据,例如通过引入负弹簧或调整能量函数。 |
| 17. 核 PCA 与局部线性嵌入(LLE) | 证明相关核函数的正定性,并说明核 PCA 使用 LLE 核可以提供 LLE 嵌入系数。讨论使用中心化 Gram 矩阵的 LLE 变体以及 LLE 核作为相似性度量的解释,有助于理解数据点之间的局部关系。 |
| 18. PCA 的最优逼近性质 | 讨论 KFA 的解是否满足 PCA 的最优逼近性质。这涉及到对 KFA 算法的目标函数和 PCA 最优性条件的比较。 |
| 19. 尺度不变性 | 证明核 PCA 和稀疏核特征分析问题是尺度不变的。分析在特征空间和输入空间中进行数据重缩放的情况,以及特定核函数(如 $k(x, x’) = \langle x, x’ \rangle^d$ 和 $k(x, x’) = \exp(-\frac{|x - x’|^2}{2\sigma^2})$)的表现。 |
| 20. 投影追踪的对比度函数 | 计算 $q(\xi) = \xi^4$ 在单位方差正态分布下的期望,并讨论使用不同分布时的情况。尝试找到在处理零均值和单位方差密度时的最优函数 $q(\xi)$,可通过设置约束优化问题并使用拉格朗日乘子和变分导数来解决。 |
| 21. 切割平面与 $F_p$ | 计算通过用向量 $\Phi(x_i)$ 正交切割 $F_1$ 得到的多面体集的顶点。讨论将 $F_1$ 替换为 $F_p$ 时的情况,以及每次切割后每个顶点所需的 $\Phi(x_j)$ 数量的变化,这有助于理解约束集的几何结构。 |
| 22. 原像问题 | 利用相关方法为稀疏核特征分析设计去噪算法。可以通过对特征值进行筛选或对特征向量进行调整来实现去噪。 |
| 23. 核 PCA 与稀疏 KFA 的比较 | 绘制核 PCA 和稀疏 KFA 投影的方差图,讨论它们的相似性和差异。解释为什么稀疏 KFA 的方差随投影索引的衰减更慢,这与稀疏 KFA 的稀疏性约束有关,使得其保留了更多的特征信息。 |
| 24. 扩展到一般核 | 尝试将稀疏特征提取算法扩展到非正定的核。讨论替代特征空间正交性的标准以及算法是否保留其良好的数值特性,例如是否仍然可以进行有效的矩阵对角化。 |
| 25. 一致收敛界限 | 证明 $Q[f]$ 的期望值与其经验估计值之间偏差的界限。这有助于评估算法的稳定性和可靠性。 |
10. 方法总结与对比
下面以表格形式对核主成分分析(Kernel PCA)和稀疏核特征分析(Sparse KFA)的主要方法和特点进行总结对比:
|方法|优点|缺点|适用场景|
| ---- | ---- | ---- | ---- |
|核主成分分析(Kernel PCA)| - 能在高维特征空间中执行 PCA,通过简单矩阵对角化在有限时间内得到较好结果。
- 与传统 PCA 有一定联系,可应用于传统 PCA 适用且需非线性扩展的领域。| - 存在计算问题,样本量太大时核矩阵对角化可能不可行。
- 只能计算特征值,难以明确得到特征向量。|数据维度高,需要非线性特征提取,且样本量相对较小的场景。|
|稀疏核特征分析(Sparse KFA)| - 利用稀疏正则化器,可将复杂优化问题简化为对有限集的最大搜索。
- 随机子集选择方法可提高算法速度,降低内存需求。
- 特征具有稀疏性,能保留更多有意义的特征信息。| - 提取主方向每个特征提取器需要 $O(m^2)$ 次操作。|样本量较大,需要稀疏特征表示,且对计算资源有一定限制的场景。|
11. 未来展望
核主成分分析和稀疏核特征分析在特征提取领域已经取得了显著的成果,但仍有许多方面值得进一步研究和探索。
- 算法优化 :继续研究如何进一步降低计算复杂度,特别是对于大规模数据集。可以探索新的算法架构或优化现有算法的步骤,以提高算法的效率和可扩展性。
- 核函数扩展 :尝试将算法扩展到更广泛的核函数类型,包括非正定核。研究如何在使用这些核函数时保持算法的稳定性和有效性,以及如何处理相关的数值问题。
- 应用拓展 :将核主成分分析和稀疏核特征分析应用到更多的领域,如医学图像分析、生物信息学、金融数据分析等。探索在这些领域中如何更好地利用算法的特点来解决实际问题。
- 理论完善 :进一步完善算法的理论基础,如构建更精确的 VC 界限、研究算法的收敛性和稳定性等。这有助于更好地理解算法的性能和适用范围。
通过不断的研究和改进,核主成分分析和稀疏核特征分析有望在更多领域发挥重要作用,为解决复杂的特征提取问题提供更有效的方法。
12. 总结
核主成分分析(Kernel PCA)和稀疏核特征分析(Sparse KFA)是两种重要的特征提取方法。核 PCA 是经典 PCA 的核推广,在高维特征空间中具有一定的优势,但存在计算问题。而稀疏 KFA 利用稀疏正则化器,在处理大规模数据和稀疏特征表示方面具有潜力。
通过对这两种方法的详细介绍、实验分析和问题讨论,我们深入了解了它们的原理、特点和应用场景。同时,我们也看到了它们在未来研究和应用中的广阔前景。在实际应用中,应根据具体问题的特点和需求,选择合适的方法来进行特征提取,以达到最佳的效果。
希望本文能为读者提供有价值的参考,帮助他们更好地理解和应用核主成分分析和稀疏核特征分析。
graph LR
A[核主成分分析(Kernel PCA)] --> B[高维特征空间 PCA]
A --> C[矩阵对角化计算]
A --> D[计算问题]
E[稀疏核特征分析(Sparse KFA)] --> F[稀疏正则化器]
E --> G[有限集最大搜索]
E --> H[随机子集选择]
B --> I[非线性特征提取]
C --> J[有限时间结果]
D --> K[样本量大时受限]
F --> L[简化优化问题]
G --> M[处理复杂问题]
H --> N[提高算法速度]
I --> O[传统 PCA 扩展领域]
J --> P[实际应用效果]
K --> Q[需替代方法]
L --> R[稀疏特征表示]
M --> S[大规模数据处理]
N --> T[降低内存需求]
O --> U[医学图像分析]
O --> V[生物信息学]
O --> W[金融数据分析]
R --> X[保留有意义特征]
S --> Y[实际应用优势]
T --> Z[资源受限场景适用]
图 2:核主成分分析和稀疏核特征分析的关系及应用拓展
超级会员免费看

被折叠的 条评论
为什么被折叠?



