题目
An ensemble approach to multi-view multi-instance learning
一种多视图多实例学习的集成方法
2017-KBS
摘要
多视图学习结合了来自多个异构来源的数据,并利用它们的互补信息来构建更准确的模型。多示例学习将示例表示为包含实例集的标记包。由于基数和特征空间不同,不同多实例视图的数据融合不能简单地串联成一组特征。
本文提出了一种集成方法,该方法结合了视图学习器并在加权类预测之间寻求共识,以利用来自多个视图的互补信息。重要的是,集成必须处理来自每个视图的不同特征空间,而包的数据可能在视图中部分表示。
实验研究在一组 15 个多实例数据集上评估并比较了提议的性能与 20 种传统的、基于集成的和多视图算法。实验结果表明集成方法的性能优于单分类器,尤其是多视图多实例方法的最佳结果。结果通过多个非参数统计分析进行验证。
贡献:
1)提出集成学习将来自多视图多实例数据关系的信息与异构特征集融合,而不进行任何多实例问题转换。
2)为每个视图确定性能最佳的基分类器。在每个视图上使用不同的基分类器簇,选择对每个视图表现最好的模型
3)对基分类器进行加权。并非所有视图都为分类器提供有用的高质量信息
相关知识
多视图学习
利用多个不同特征集表示(视图)进行学习,他们从不同的数据源获得。
原则:其遵循基于数据的共识与互补原则
共识原则最大化不同视图的一致性。一致性可以从分类器和信息两个角度去理解:如果从多个视图学习到多个分类器,那么对于同一条多视图样本来说,不同分类器给出的分类结果应该是一致的;信息的角度来说,从不同视图中学习到的特征或者信息有一部分是“语义”关联的
互补原则,不同的视图通常包含相互补充的信息,这些信息使得从这个视图学习到的分类器可以分对一些从其他视图所学到的分类器无法分对的样本。
%考虑不同视图之间的信息分布
视图融合:视图的融合提供了关于包的更完整的信息,这将带来更好的准确性。包含在多个视图中的bags共享包标识符,包中的实例使用不同的特征向量(不同视图提供的属性不同)
在传统的单实例分类中,通过简单地连接不同视图中共同示例的特征集。然而,这个过程不能在多示例学习中直接执行,因为特定实例之间没有匹配,而是通过它们的包标识符在bags之间进行匹配。
当前的多视图多示例方法将数据问题转换为多个单元实例视图。但是这种扁平化转换破坏了数据的多示例表示,并拒绝解决问题的真正多视图多示例性质。
%分类: %1)协同训练:交替地从不同的视图中学习,以最大化数据的两个不同视图之间的相互一致性 %2)多核学习:执行视图的线性或非线性组合 %3)子空间学习:重点在视图共享的子空间
集成学习
集成学习(ensemble learning)通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统(multi-classifier svstem).一般结构:先产生一组“个体学习器”(individual learner),再用某种策略将它们结合起来.个体学习器通常由一个现有的学习算法从训练数据产生.例如决策树算法、BP神经网络算法等。
集成学习
Multi-view multi-instance ensemble
符号系统
符号 | 表示 |
---|---|
X v \mathcal{X}^v Xv | 视图 v v v的特征空间 |
b = { b 1 , … , b V } b=\{ {b}^1,\dots,{b}^V\} b={ b1,…,bV} | 具有多个特征向量视图的示例(examples ) |
C C C | 标签 |
b v = { x ‾ 1 v , x ‾ 2 v , … , x ‾ k v v } {b}^v=\{\overline{x}_1^v,\overline{x}_2^v,\dots,\overline{x}_{k_v}^v\} bv={ x1v,x2v,…,xkvv} | 视图 v v v包的表示 |
x |