【论文阅读】Augmented Transformer network for MRI brain tumor segmentation

Zhang M, Liu D, Sun Q, et al. Augmented transformer network for MRI brain tumor segmentation[J]. Journal of King Saud University-Computer and Information Sciences, 2024: 101917. [开源]
IF 6.9 SCIE JCI 1.58 Q1 计算机科学2区

【核心思想】

本文提出了一种新型的MRI脑肿瘤分割方法,称为增强型transformer 网络(AugTransU-Net),旨在解决现有transformer 相关的U-Net模型在捕获长程依赖和全局背景方面的局限性。本文的创新之处在于构建了改进的增强型transformer 模块,这些模块结合了标准transformer 块中的增强短路(Augmented Shortcuts),被策略性地放置在分割网络的瓶颈处,以保持特征多样性并增强特征交互和多样性。

【方法】

image-20240122153749527

  1. 架构设计:AugTransU-Net利用层次化的3D U-Net作为骨干网络,引入了配对注意力模块(paired attention modules)到编码器和解码器层,同时利用改进的transformer 层通过增强短路(Augmented Shortcuts)在瓶颈处。

  2. 特征增强:通过增强短路(Augmented Shortcuts),可以在多头自注意力块中增加额外的分支,以保持特征多样性和增强特征表示。传统的Shortcuts连接只是将输入特征复制到输出,这限制了其增强特征多样性的能力。具有增强Shortcuts方式的 Transformer 模型已被用来避免特征崩溃并产生更多样化的特征。增强短路的公式为:

    Aug ⁡ − S = ∑ i = 1 T T l i ( Z l ; θ l i ) , l ∈ [ 1 , 2 , … , L ] \operatorname{Aug}_{-} S=\sum_{i=1}^{T} T_{l i}\left(Z_{l} ; \theta_{l i}\right), l \in[1,2, \ldots, L] AugS=i=1TTli(Zl;θ

关于 Gradually Recurrent Network (GREnet) 结合 Curriculum Learning 在 2D 医学图像分割中的应用,以下是详细的架构实现和相关技术背景: ### GREnet 和 Curriculum Learning 的基本概念 #### GREnet 架构设计 GREnet 是一种逐渐递归网络结构,旨在通过逐步引入复杂度来提高模型的学习能力。其核心思想是在训练过程中动态调整网络的递归深度,从而允许模型从简单的模式开始学习,并随着训练进程逐渐处理更复杂的特征[^1]。 #### Curriculum Learning 的作用 Curriculum Learning 是一种模仿人类学习过程的方法,它通过按顺序提供由简单到复杂的样本给模型,帮助神经网络更快收敛并提升泛化性能。在医学图像分割领域,这种方法特别适用于解决数据分布不均或标注质量参差不齐的问题[^2]。 --- ### GREnet 在 2D 医学图像分割中的具体实现 #### 数据预处理阶段 为了适应 GREnet 的需求,在数据准备阶段通常会执行以下操作: - **分层采样**:按照病变区域大小或其他显著特征对数据集进行分类,形成多个子集合。 - **增强策略**:采用随机旋转、缩放和平移等方式扩充数据量,减少过拟合风险[^3]。 ```python import numpy as np from skimage.transform import rotate, rescale def augment_image(image): angle = np.random.uniform(-15, 15) scale_factor = np.random.uniform(0.9, 1.1) augmented_image = rotate(image, angle=angle, resize=True) augmented_image = rescale(augmented_image, scale_factor, mode='reflect') return augmented_image ``` #### 模型构建与递归机制 GREnet 的主要特点是逐层增加递归单元的数量以及连接方式的变化。这种渐进式的增长有助于缓解梯度消失问题,并使深层网络能够有效捕捉全局上下文信息[^4]。 ```python import tensorflow as tf from tensorflow.keras.layers import Input, Conv2D, MaxPooling2D, UpSampling2D, concatenate def build_gre_net(input_shape=(256, 256, 1), num_classes=2): inputs = Input(shape=input_shape) conv1 = Conv2D(32, kernel_size=(3, 3), activation='relu', padding='same')(inputs) pool1 = MaxPooling2D(pool_size=(2, 2))(conv1) # 添加更多卷积层... upsampled_layer = UpSampling2D(size=(2, 2))(pool1) merged_layer = concatenate([upsampled_layer, conv1]) outputs = Conv2D(num_classes, kernel_size=(1, 1), activation='softmax')(merged_layer) model = tf.keras.Model(inputs=[inputs], outputs=[outputs]) return model ``` #### 训练流程集成 Curriculum Learning 在实际训练中,可以通过设置不同的 epoch 阈值控制输入样本难度的增长速度。例如,初期仅使用边界清晰的目标对象作为正例;后期则加入模糊边缘或者重叠区域较多的情况以挑战模型极限[^5]。 ```python def curriculum_training(model, train_data_easy, train_data_hard, epochs_per_stage=10): for stage in range(2): # 假设有两个阶段 if stage == 0: current_dataset = train_data_easy elif stage == 1: current_dataset = train_data_hard model.fit(current_dataset, epochs=epochs_per_stage, batch_size=8) ``` --- ### 实验评估与优化建议 通过对不同参数组合下的实验结果分析发现,适当调节递归层数目以及课程安排节奏对于最终效果至关重要。此外,还可以考虑引入注意力机制进一步强化局部细节的表现力[^6]。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值