论文阅读总结:UNet++: A Nested U-Net Architecture for Medical Image Segmentation

UNet++: A Nested U-Net Architecture for Medical Image Segmentation

摘要:

  1. 提出了适用于医学图像分割的更有效的新网络,UNet++网络。

    网络结构为深监督的、编码器-译码器(deeply-supervised, encoder-decoder)结构的网络,具体为编码器和译码器的子网络通过一系列嵌套的,密集的跳跃路径(nested, dense skip pathways)相连接。

  2. 理论上:作者认为当来自decoder的特征图(feature maps)与来自encoder的特征图在语义上相似时,优化器(optimizer)可以处理更简单的学习任务。

  3. 评估:将UNet++与U-Net、加宽的U-Net网络结构在多种医学图像分割任务上相对比。

  4. 结论:实验证明包含深监督的UNet++网络超过了U-Net、加宽的U-Net网络的表现,具体为IoU平均高3.9个百分点和3.4个百分点。

问题提出:

  • 比较先进的encoder-decoder结构的图像分割网络如U-Net与FCN的共同点:采用了"跳跃连接(skip connections)"

跳跃连接:将来自decoder子网络的深的、语义的、粗粒度的特征图和拉例子encoder子网络的前的、低水平的、细粒度的特征图连结在一起。

  • 在自然图像上表现良好,但医学图像分析对精度有着更高要求。

  • 本文假设(即提出架构的理论基础):当encoder网络中的高分辨率特征图逐渐丰富,然后再与decoder网络中相应的语义丰富的特征图结合时,该模型能更有效地捕获物体的细粒度细节。

    重点:在特征图结合之前,先使来自encoder的特征图更加丰富。

Related Work

  • 全连接网络FCN
  • U-Net
  • DenseNet
  • H-denseunet
  • 论证了跳跃连接的作用,并提出short skip connection within encoder(Drozdzalet al.)

共同点:融合来自encoder和decoder的语义上不相似的特征图。

  • GridNet
  • Mask-RCNN

网络结构:UNet++

UNet++由encoder和decoder组成,其中,encoder和decoder通过一系列嵌套的密集的卷积块连接。

通过这种方式,Unet++在融合特征图前,弥补了不同特征图在语义上的差异。

在这里插入图片描述

  • 黑色:原始的U-Net结构
  • 蓝色:skip pathways中的密集连接
  • 绿色:卷积块(convolution blocks)
  • 红色:深监督

蓝色、绿色、红色部分区别于原始的U-Net。

##设计思路

  1. 关于重新设计的skip pathways

FCN和UNet都使用了跳跃连接(skip connection),

  • FCN中,上采样过程中的的特征图与通过跳跃连接,来自encoder的特征图求和。

  • UNet中将两个特征图片拼接,并在上采样过程的每一步中增加了卷积层和非线性。

    密集卷积块将来自encoder的特征图的语义信息转化得与来自decoder的特征图的语义信息更加相近,能让optimizer处理更加简单的优化问题。

  1. 深监督(deep supervision)

本文在UNet++中引入了深监督,使模型能够在两种模式下使用。
1. 精确模式
在此模式下,输出为来自所有分割分支输出的平均。
2. 快速模式
在此模式下,最终的输出仅来自于一个分割分支。选择哪个分支的依据为模型的修建成都和速度增益。
在这里插入图片描述

图中©部分展示了在快速模式下,分割分支的选择会造成结构不同的复杂度。

  • 因为UNet++中的skip pathways在多个能产生多个语义水平的全分辨率(full resolution)的特征图,可以在深监督中被使用。

总结

UNet++与UNet在主要有三点不同(改进)。

  • 在skip pathways中添加卷积层,减少了来自encoder和decoder的特征图在语义上的差异。
  • 在skip pathways中包含密集的跳跃连接(示意图中蓝色部分)
  • 包含深监督。

碎碎念:最近决定读完论文之后开始写论文总结!这篇作为崭新的开始~目前的论文总结主要是基于论文内容+自己的理解,加深记忆方便以后的查找。以后一定能越来越熟练的!加油鸭鸭!

### Mamba-UNet 架构及其在医学图像分割中的应用 Mamba-UNet 是一种基于纯视觉模型的架构设计,专为医学图像分割任务而优化。它继承了 U-Net 的经典编码器-解码器结构,并通过引入创新性的模块来提升性能和效率。 #### 1. Mamba-UNet 的核心架构特点 Mamba-UNet 结合了 Vision Transformer 和卷积神经网络的优势,在保持高效计算的同时增强了特征提取能力。其主要特性如下: - **双流特征融合机制** Mamba-UNet 利用了多尺度特征图之间的交互作用,通过跨层连接实现更深层次的信息传递[^1]。这种设计显著提升了模型对复杂边界区域的理解能力。 - **轻量化注意力模块** 在传统 U-Net 基础上,Mamba-UNet 集成了高效的自注意力机制,用于捕捉全局上下文信息。这使得模型能够更好地处理具有较大形变的目标对象。 - **渐进式下采样策略** 不同于标准 U-Net 中固定的池化操作,Mamba-UNet 使用了一种动态调整步幅的方法来进行逐级降维。这种方法可以减少不必要的细节损失并保留更多语义信息。 #### 2. 应用场景与优势分析 Mamba-UNet 主要应用于医疗领域内的高精度图像分割任务,例如肿瘤检测、器官轮廓描绘以及细胞分类等。以下是该方法的一些具体应用场景及对应优点: - **脑部 MRI 图像分割** 对于大脑组织切片数据集而言,由于不同灰质白质区域之间存在模糊过渡带,因此需要极高分辨率才能区分细微差异。Mamba-UNet 凭借强大的局部感知能力和长距离依赖建模功能成功解决了这一难题。 - **肺结节 CT 扫描识别** 肺部影像通常伴有大量噪声干扰项,这对任何算法都构成了严峻挑战。然而借助精心设计的空间金字塔池化单元,再加上残差学习路径的支持,最终实现了稳健可靠的预测效果。 ```python import torch from torchvision import models class MambaUNet(torch.nn.Module): def __init__(self, num_classes=1): super(MambaUNet, self).__init__() # Encoder layers with progressive downsampling strategy self.encoder = [ torch.nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1), ... ] # Decoder layers incorporating lightweight attention modules self.decoder = [ torch.nn.ConvTranspose2d(128, 64, kernel_size=2, stride=2), ... ] self.final_conv = torch.nn.Conv2d(64, num_classes, kernel_size=1) def forward(self, x): skip_connections = [] for layer in self.encoder: x = layer(x) skip_connections.append(x) for i, layer in enumerate(self.decoder): x = layer(x) x += skip_connections[-i-1] output = self.final_conv(x) return output ``` 上述代码片段展示了如何构建一个简化版的 Mamba-UNet 模型框架。实际部署过程中可能还需要进一步调优参数配置以适应特定需求环境下的表现指标要求。 #### 总结 综上所述,Mamba-UNet 提供了一个灵活且有效的解决方案来应对现代医学成像技术所带来的各种新问题。凭借独特的体系结构改进措施,不仅提高了整体运行速度还兼顾到了准确性方面的要求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值