多视图学习

本文介绍了多视图学习的基本概念,包括典型相关性分析(CCA)和协同训练(co-training)。讨论了如何利用多视图进行数据降维,如PCA和Fisher线性判别分析,并探讨了多视图在半监督学习、监督学习、主动学习、集成学习、迁移学习和聚类等领域的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

多视图学习典型方法

  1. 典型相关性分析(CCA)
    从整体上把握两组指标之间的相关关系,分别在两组变量中提取有代表性的两个综合变量u和v(分别为两个变量组合中各变量的线性组合),利用这两个综合变量之间的相关关系来反映两组指标之间的整体相关性。
  2. 协同训练(co-training)
    为验证协同训练的有效性,给出一个PAC分析。PAC 分析是在两个假设条件下进行的:
    (1)每个视图都足以进行正确的分类(也就是说,在每个样本上,组合视图都有标签一致性)
    (2)任何样本的两个视图对于给定的类别标签都是条件独立的,初始的弱分类器保持了 PAC 的可学习性。

如何利用多视图

  1. 多视图数据降维
    1. 主成分分析(PCA)——无监督
      PCA的降维的核心就在于将原始n维数据投影到k个单位标准正交基上,为了保证投影后的数据包含足够的信息,PCA要求投影后每一维特征的方差足够大,因为方差越大,投影到低维后重叠越少。同时,PCA也要求特征之间互相独立,这样可以保证不同特征间含有更少的重复信息。
    2. Fisher线性判别分析——监督
      Fisher线性判别的核心是将原始数据投影到一维空间中,使得原本线性不可分的数据变得线性可分(类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别)。
      Fisher线性判别的关键在于最大化一个准则函数J,准则函数J是由类间散度比上类内散度得到的。最大化准则函数J是要求类内散度足够小而类间散度足够大。小的类内散度保证了当前类中的数据足够紧密。大的类间散度保证了这两个类有足够的可分性。
  2. 多视图半监督学习
    1. 协同训练
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值