论文笔记:Attention U-Net: Learning Where to Look for the Pancreas

本文介绍了一种改进的U-Net模型——AttentionU-Net,通过引入注意门机制,模型能自动聚焦于医学影像中的目标结构,提高多类图像分割的准确性和效率。实验证明,在CT腹部数据集上,AttentionU-Net相比传统U-Net有显著提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Abstract

我们提出了一种用于医学成像的新型注意门(AG)模型,该模型自动学习聚焦于不同形状和大小的目标结构。用AG训练的模型隐 含地学习抑制输入图像中的不相关区域,同时突出显示对特定任务有用的显着特征。这使我们能够消除使用级联卷积神经网络(CNN)的 显式外部组织/器官定位模块的必要性。 AG可以很容易地集成到标准CNN架构中,例如U-Net模型,具有最小的计算开销,同时提高模型 灵敏度和预测精度。提出的Attention U Net架构在两个大型CT腹部数据集上进行评估,用于多类图像分割。实验结果表明,AG在不同数 据集和训练大小的同时,不断提高U-Net的预测性能,同时保持计算效率。提出的结构的源代码是公开的。

为什么加AG?

U-net中特征融合部分使用的是特征拼接(concat)。
我们知道,浅层特征中的位置信息比较多,或者说位置信息比较好,但是学到的特征没有深层的高级。
Attention Unet的作者改进了网络的解码部分,使用了注意力机制,即对编码过程中产生的特征图根据深层特征图进行修正,这样做不仅保留位置信息,又抑制了不相关背景区域中的特征响应,突出对特定任务有用的显着特征

拿一个肾脏分割的例子

原数据集:
在这里插入图片描述 在这里插入图片描述

U-Net

在这里插入图片描述
下图是红框中白色部分(对应左边解码器)输出的激活图:在这里插入图片描述

Attention unet

在这里插入图片描述

红框中输出的激活图:

在这里插入图片描述绿框中输出的激活图:
在这里插入图片描述输出的权重图α:

在这里插入图片描述
在这里插入图片描述

参考
论文翻译:Attention U-Net: Learning Where to Look for the Pancreas-代码天地

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值