多示例学习(multi-instance learning)
本科毕业答辩结束!这个系列主要分享一些Miccai这一医学影像分析顶级会议上论文~
为什么讲这个?
看到了miccai2017年的一篇挺有意思的论文,所以查阅了相关研究资料,分享给大家。
什么是多示例学习?
这方面国内的大牛周志华是领域翘楚,大家有兴趣可以看看他之前的相关工作。下面的部分摘自他的一个survey性质的文章。
周志华survey
在多示例学习中,训练样本是由多个示例组成的包,包是有概念标记的,但示例本身却没有概念标记。如果一个包中至少包含一个正例,则该包是一个正包,否则即为反包。
与监督学习相比,MIL中的训练示例是没有概念标记的,这与监督学习中所有训练示例都有概念标记不同;与非监督学习相比,MIL中的训练包是有概念标记的,这与非监督学习的训练样本中没有任何概念标记也不同。
在以往的各种学习框架中,一个样本就是一个示例,即样本和示例是一一对应的关系;而在MIL中一个样本(即包)包含了多个示例,即样本和示例是一对多的对应关系。因此这是一种新的学习框架。
Miccai论文
那么Miccai论文是怎么应用这个多示例学习呢?先介绍整个论文是在干嘛?
论文是对Mammogram乳房X光照片进行分类用来计算机辅助检测乳腺癌,传统的做法依赖于ROI(Regions of Interest)的获取,即需要detection然后segementation最后再进行classification。这有两个缺点:
- 依赖于人为设计的特征,以及groundtruth
- 不是end-to-end
那么这篇论文是怎么解决的呢?
它是基于原始整个乳房X光图片进行分类。它将每个乳房X光照片的patch看做示例,将整个乳房X光照片看做a bag of instances即上面说的包。那么这个分类问题可以看做是标准的MIL问题。
上图就是整个乳房X照片分类的流程图。
- 首先使用大津方法(类内方差最小,类间方差最大)来移除背景同时resize到227*227
- 使用AlexNet中的卷积层,提取它最后一个卷积层的特征。最后会得到6*6*256的feature map
- 对CNN中的feature map进行基于恶性(当确定为恶性是为1)不同patch之间权值共享的logistic regression,然后将response进行rank。
- 最后学习的损失由三种不同的模式进行计算,分别是max pooling loss, label assignment, sparsity loss.
Deep MIL细节
逻辑回归
对于一个原始图像 I I ,我们可以得到经过多层卷积和池化后的一个很小的有着多通道(通道数为