论文阅读:A Bottom-Up Approach for Automatic Pancreas Segmentation in Abdominal CT Scans

本文介绍了一种基于腹部CT扫描的胰腺自动分割方法。该方法为自底向上方式,利用超像素进行图像分割。实验表明,SLIC超像素方法在边界召回率上表现最优。进一步地,通过提取patch级别的特征进行分类,最终实现胰腺的有效分割。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文信息

A Bottom-Up Approach for Automatic Pancreas Segmentation in Abdominal CT Scans
2014 MICCAI workshop
文章先泛读一下。以后要用到类似方法再回来看。

背景

胰腺的个异性很强,在形状/尺寸/位置方面。之前的研究几乎都是自顶向下的,图谱配准或统计模型【1-3】。本文提出一个自底向上的方法,基于单相CT序列

方法

1. 超像素生成

为了得到高边界召回率的超像素分割,文章对四种方法做了实验,最后结果如下,边界召回率 SLIC > Entropy Rate > Efficient Graph > Watershed。 其中SLIC在两个像素以内达到了90%以上的召回率。文章选择用超像素而不是超体素,因为边界泄露问题在3D中较严重。

2. patch级别特征提取及标注

14个图像特征之间用DSIFT特征连接,最后一共46个特征。

3. 超像素级别特征提取及分类

讨论&启发

本文的目的只是测试一下用超像素作为middle-level representation来分割的效果。没有采用后处理。未来为了提高精度,可以采用如:3D morphological operators, connected component analysis, surface-based level-set or graph-cut based MRF/CRF optimization.
将超像素在slice之间连接起来,结构化地来考虑。

### Attention U-Net在医学影像中的胰腺定位 Attention U-Net是一种改进型U-Net架构,在处理医学图像分割任务时表现出显著优势。该模型通过引入注意力机制来增强特征图的有效性,使得网络能够更专注于目标区域[^1]。 #### 模型结构特点 传统U-Net由编码器和解码器组成,而Attention U-Net在此基础上增加了跨层连接处的门控单元——即所谓的“attention gate”。这些gate可以动态调整来自浅层到深层的信息流强度,从而提高对特定器官(如胰腺)边界的捕捉能力[^2]。 对于胰腺这类形态复杂且位置多变的人体内部器官而言,这种设计有助于克服其固有的挑战: - **低对比度**:由于周围组织密度相近,导致CT/MRI扫描下难以区分; - **大小变化大**:不同个体间差异明显; - **形状不规则**:边界模糊不易界定; ```python import torch.nn as nn class AttentionBlock(nn.Module): """定义Attention Gate""" def __init__(self, F_g, F_l, n_coefficients): super(AttentionBlock, self).__init__() self.W_gate = nn.Sequential( nn.Conv2d(F_g, n_coefficients, kernel_size=1), nn.BatchNorm2d(n_coefficients) ) self.W_x = nn.Sequential( nn.Conv2d(F_l, n_coefficients, kernel_size=1), nn.BatchNorm2d(n_coefficients) ) self.psi = nn.Sequential( nn.Conv2d(n_coefficients, 1, kernel_size=1), nn.BatchNorm2d(1), nn.Sigmoid() ) self.relu = nn.ReLU(inplace=True) def forward(self, g, x): gated_signal = self.W_gate(g) input_feature = self.W_x(x) psi = self.relu(gated_signal + input_feature) attention_weights = self.psi(psi) return x * attention_weights class AttUNet(nn.Module): """构建带有Attention Gates的U-Net""" def __init__(...): ... ``` 上述代码片段展示了如何创建一个简单的Attention Block以及将其集成至U-Net框架内的方式。实际应用中还需要考虑更多细节优化,比如预训练策略的选择、损失函数的设计等[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值