【论文阅读笔记】Joint learning-based feature reconstruction and enhanced network for incomplete multi-modal

Diao Y, Li F, Li Z. Joint learning-based feature reconstruction and enhanced network for incomplete multi-modal brain tumor segmentation[J]. Computers in Biology and Medicine, 2023, 163: 107234.

方法概述:

  1. 本芹利用信息学习机制从完整模态到单一模态的信息转移,获取完整的脑肿瘤信息。

  2. 包含重建缺失模态特征的模块,利用可用模态的信息恢复缺失模态的融合特征。

  3. 特征增强机制改善共享特征表示,利用重建的缺失模态的信息。

  4. 在BraTS2018数据集上评估性能,并与其他深度学习算法进行比较,显示该方法在缺失模态情况下的优势。

文章特点总结

1.端到端的训练,借鉴mmformer dropout机制,使得训练时也能考虑缺失模态。

2.生成缺失模态时候没有用GAN,训练更容易

3.多次采用KL散度强制对齐缺失模态和完整模态,特征信息不全更好。

4.多次交替使用轻量级的交叉注意力和自注意力,而不是直接使用Transformer,计算效率更高。

缺点:架构太复杂,多次使用KL散度,训练稳定性不足。

image-20231120085444947

该方法分为三个阶段,单模态信息学习,缺失模态特征重建,脑瘤共享特征表征增强。在UML阶段,完整模态被用来作为监督来指导每个模态学习完整模态中呈现的脑肿瘤信息。在MMFR阶段,我们使用共享特征表示来重建缺失模态的特征并恢复其信息。SERE阶段利用重建的缺失模态特征增强脑肿瘤的共享特征表征,获得更全面的肿瘤信息。此外,为了确保共享特征表示与全模态一致,缺失模态和全模态路径都使用一个共享的卷积解码器。提高了特征表示能力,保证了共享特征表示的一致性。

  • Unimodal information learning:提出了一种具有两种独立学习路径的联合学习方法:第一种学习路径使用所有可用的模式作为输入,而第二种学习路径使用完整的模式。目标是将完整模态路径中的丰富特征信息转移到缺失模态路径中,同时鼓励缺失模态路径对缺失信息进行重构。与以往的蒸馏提取方法不同,该方法不需要针对每个缺失的模态情况训练一个单独的模型,而是利用完整的模态信息对每个模态进行引导,以缓解特征提取阶段的跨模态依赖问题。通过L1损失和KL散度来指导每个模式的特征提取器学习多模态的完整肿瘤特征。

L trans  = 1 4 ∑ i = 4 l ( ∥ F f i − F m i ∥ 1 + L k l ( F f i , F m i ) ) \mathcal{L}_{\text {trans }}=\frac{1}{4} \sum_{i=4}^{l}\left(\left\|F_{f}^{i}-F_{m}^{i}\right\|_{1}+\mathcal{L}_{k l}\left(F_{f}^{i}, F_{m}^{i}\right)\right) Ltrans =41i=4l( FfiFmi 1+Lkl(Ffi,Fmi))

  • Missing modality feature reconstruction:以往处理缺失模式的方法通常包括重建完整模态,然后融合完整模态的信息进行分割。因此,最终的分割性能对重建模态的质量有很大的影响。本文利用潜在空间的共享特征表示增强共享特征表示,利用特征重建方法重构缺失模态的融合特征。为了获得更好的脑肿瘤共享特征表示,强制缺失的模态路径学习完整模态路径的丰富特征表示,使其潜在的特征表示尽可能接近。为了实现这一点,使用KL散度作为它们之间的损失函数:

    L k l = D k l ( F share  , F full  ) \mathcal{L}_{k l}=D_{k l}\left(\boldsymbol{F}_{\text {share }}, \boldsymbol{F}_{\text {full }}\right) Lkl=Dkl(Fshare ,Ffull )

  • Shared feature representation enhancement:使用交叉注意来计算共享特征和重建特征之间的相关性,并更准确地捕捉它们的肿瘤相关特征。为了进一步增强共享特征表示,对缺失路径和完整路径都使用了一个共享解码器,这强制共享特征表示与全模态的潜在特征保持一致。

image-20231120092406930

效果:

数据集:BraTS2018和BraTS2020,算力3090*2

image-20231120092813160

### 基于上下文引导的空间特征重建的研究背景 在计算机视觉领域,语义分割是一项核心任务,其目标是对图像中的每个像素分配一个类别标签。为了提高效率并保持高精度,许多研究提出了不同的优化策略。其中一种有效的方法是通过 **基于上下文引导的空间特征重建 (Context-Guided Spatial Feature Reconstruction)** 来增强模型性能[^1]。 这种方法的核心在于利用全局和局部的上下文信息来改进空间特征表示的质量。具体来说,它可以通过自适应采样机制减少冗余计算,并专注于更具有判别性的区域。这种技术不仅能够加速训练过程,还能显著提升最终预测的准确性。 --- ### 自感知采样方案的应用 文章提到的一种名为“Self-aware Sampling Scheme”的方法被设计用于高效地训练全卷积网络(FCN)。该方法的关键思想是在训练过程中动态调整样本权重,从而优先处理那些更具挑战性的部分。这有助于缓解传统均匀采样的局限性,尤其是在面对复杂场景时。 #### 方法概述 以下是 Context-Guided Spatial Feature Reconstruction 的主要组成部分: 1. **多尺度特征融合**: 利用不同层次上的特征图捕获丰富的细节以及高层次抽象概念之间的关系。此操作通常借助跳跃连接或者注意力模块完成。 2. **上下文建模**: 引入全局平均池化(GAP)或其他形式的位置编码手段提取整个输入图片范围内的依赖模式。这些额外的信息可以指导后续阶段更好地理解对象边界及其内部结构特性。 3. **轻量化重构层**: 设计专门针对低延迟需求而定制化的解码器架构,在不牺牲太多质量的前提下降低参数量级数。例如采用深度可分离卷积代替标准二维卷积运算单元。 4. **损失函数创新**: 结合交叉熵误差项与其他正则化约束条件共同定义总体目标函数表达式。这样做既可以促进收敛速度又能防止过拟合现象发生。 ```python import torch.nn as nn class CG_SpatialReconstruction(nn.Module): def __init__(self, in_channels, out_channels): super(CG_SpatialReconstruction, self).__init__() # 多尺度特征融合组件 self.fusion_layer = nn.Sequential( nn.Conv2d(in_channels=in_channels * 2, out_channels=out_channels, kernel_size=1), nn.BatchNorm2d(out_channels), nn.ReLU() ) def forward(self, low_level_features, high_level_features): fused_feature_maps = torch.cat([low_level_features, high_level_features], dim=1) reconstructed_output = self.fusion_layer(fused_feature_maps) return reconstructed_output ``` 上述代码片段展示了一个简单的实现框架,展示了如何将高低级别特征结合起来形成新的表征向量集合。 --- ### 实验验证与效果分析 实验结果显示,当应用于大规模公开数据集(如 Cityscapes 或 ADE20K)上时,所提出的算法能够在保证较高IoU得分的同时大幅缩短推理时间成本。更重要的是,即使部署到移动设备端也能维持令人满意的用户体验水平。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值