Wang S, Yan Z, Zhang D, et al. Prototype knowledge distillation for medical segmentation with missing modality[C]//ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2023: 1-5. [开放源码]
一、论文概述
本文介绍了一种名为原型知识蒸馏(Prototype Knowledge Distillation,简称ProtoKD)的方法,旨在解决医学影像分割中的缺失模态问题。在多模态医学成像中,由于扫描时间限制和其他临床情况,往往难以收集完整的多模态数据。ProtoKD方法通过从多模态数据中提取像素级知识以及类内和类间特征变化,将这些知识转移到仅访问单一模态数据的学生模型中。这样,学生模型能够从教师模型学习更鲁棒的特征表示,并仅使用单一模态数据进行推断。该方法在BraTS基准测试中实现了最先进的性能。
二、论文创新点
本文的创新点在于提出了一种新颖的原型知识蒸馏(ProtoKD)方法,用于解决医学影像分割中的缺失模态问题。其主要创新之处包括:
- 处理单模态数据的挑战: ProtoKD专门针对在只能访问单一模态数据的情况下的医学影像分割,这是一个在临床实践中常见但难以处理的问题。
- 像素级知识蒸馏: 该方法采用了像素级知识蒸馏,使得学生模型能够从教师模型中学习细粒度的特征表示,这对于医学影像分割任务尤为重要。
- 类内和类间特征变化的转移: ProtoKD不仅蒸馏像素级知识,还转移类内和类间的特征变化,这有助于学生模型更好地理解和区分不同类别的特征。
- 原型学习的应用: 该方法利用原型学习来表示每个类别的特征中心,这在少样本学习领域中常见,但在此文中被创新性地应用于知识蒸馏和医学影像分割。
- 在BraTS基准上的表现: 该方法在BraTS基准测试中展示了其优越性,实现了最先进的性能,这证明了其有效性和实用性。
二、解决缺失模态问题的三类常见方法及其优缺点概述
在本文的引言部分中,作者提到了处理医学影像分割中的缺失模态问题的三种主要方法,以及它们的优缺点:
- 合成缺失模态: 第一种方法是通过生成模型来合成缺失的模态数据,以完成测试集。这种方法的优点在于它可以直接补充缺失的信息,使得分割模型可以在完整的多模态数据上运行。然而,其缺点是需要额外的训练过程来生成合成数据,而且在只有单一模态可用时,合成多种模态的难度会显著增加。
- 学习共享潜在空间: 第二种方法旨在学习一个包含模态不变信息的共享潜在空间。这种策略的优点是在多模态数据可用时通常能够取得良好的性能。但是,其缺点是在仅有单一模态可用时性能会大幅下降。
- **基于知识蒸馏的方法:**通过将从多模态图像训练的教师模型的知识转移到仅使用单一模态训练的学生模型上。这种方法的优点是能够直接从多模态数据中获得的丰富信息中受益,而不需要合成数据。然而,它们的缺点是可能无法充分捕获模态间的复杂关系,特别是在医学图像中,这些关系对于精确的分割至关重要
因此本文要做的事情顺利引出:蒸馏+捕获模态间关系+单一模态可用
三、本文提出的方法

- 像素级知识蒸馏(Pixel-wise Knowledge Distillation)
像素级知识蒸馏是一种常见的知识蒸馏方法,它在医学影像分割中的应用可以被视为像素级的分类问题。在这种方法中,学生模型(单模态输入)被训练以模仿教师模型(多模态输入)的输出。具体来说,通过最小化学生模型和教师模型预测之间的Kullback-Leibler (KL) 散度来实现这一点。这种方法的关键在于使学生模型的预测尽可能接近教师模型的预测,从而学习到教师模型的知识。
-
原型知识蒸馏(Prototype Knowledge Distillation)
原型知识蒸馏是本文的创新点,它不仅考虑像素级的知识,还关注类内和类间的特征变化。这种方法的核心在于捕捉并传递教师模型中的内部语义关联,这是通过计算每个类别的原型(即类别的特征中心)并分析像素特征与这些原型之间的cos相似度来实现的。原型学习被广泛应用于few-shot learning领域,它代表了每个类的embedding中心,本文引入这种思想。
- 原型的计算: 对于每个类别 k k k,原型 c k c_k ck 是通过对属于该类别的所有像素特征的平均来计算的。公式为其中 z i z_i zi是像素 i i i的特征嵌入, y i y_i yi 像素的真实类别。 c k = ∑ i z i 1 [ y i = k ] ∑ i 1 [ y i = k ] c_{k}=\frac{\sum_{i} z_{i} \mathbb{1}\left[y_{i}=k\right]}{\sum_{i} \mathbb{1}\left[y_{i}=k\right]} ck=</
原型知识蒸馏提升医学影像分割在缺失模态下的性能,

本文提出一种名为ProtoKD的方法,通过像素级知识蒸馏和类内/类间特征变化转移,解决医学影像分割中因缺失模态导致的问题。在BraTS基准上取得先进性能,展示了在单模态数据下提高分割模型鲁棒性的潜力。
最低0.47元/天 解锁文章
5565

被折叠的 条评论
为什么被折叠?



