论文阅读笔记——Attention UNet

本文是关于Attention UNet的论文阅读笔记。Attention机制通过结合上下文信息,使得模型能聚焦于目标区域,通过训练调整注意力系数,增强目标区域的特征,抑制无关区域,从而提升模型的表现。在Attention UNet中,经过处理的特征图与上采样的g相加,通过ReLU和sigmoid得到注意力系数,再与原始特征图相乘,达到注意力聚焦的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 参考:https://blog.youkuaiyun.com/rosefun96/article/details/88868527

 Attention coefficients(取值0~1)与feature map相乘,会让不相关的区域的值变小(抑制),target区域的值变大(Attention)。

Attention的意思是,把注意力放到目标区域上,简单来说就是让目标区域的值变大。

看下面这张图,xl本来是要直接通过跳跃连接和g上采样的结果进行concat,这里先对xl和g转成一样的size,然后相加,relu, sigmoid得到attention coefficients。

为什么这样就能让注意力放到target区域呢?

文中提到要结合上下文的信息,其实上代表xl,g代表下,因为g学到的东西更多,信息更准确。为什么要加g呢?加g是很重要的,没有g就没有办法实现注意力系数的训练更新。我是这么理解的:g里面的信息,就是注意力该学习的方向。可以这么想,如果直接将g上采样一次得到g',g'和xl的size一样。那么同样是target的区域的像素值,g'里的像素值会比xl里的像素值大,

### Attention Unet 模型架构 Attention Unet是一种改进版的Unet,在原始Unet的基础上加入了注意力机制,从而提高了模型对重要特征区域的关注度。这种设计使得Attention Unet在网络结构中能够更加聚焦于目标对象的关键部分。 #### 基础架构特点 基础架构继承了经典Unet的设计理念,采用了U形编码解码器框架以及跳跃连接(skip connection),这有助于保留空间信息并减少下采样过程中丢失的信息量[^4]。 ```mermaid graph TB; subgraph Encoder "编码器" I0[input] C1[conv -> ReLU -> BN] D1[maxpooling] C2[conv -> ReLU -> BN] D2[maxpooling] ... Clast[conv -> ReLU -> BN] end subgraph Decoder "解码器" U1[upsample] A1[attention gate] M1(concatenate) R1[conv -> ReLU -> BN] Ulast[upsample] Alast[attention gate] Mlast(concatenate) Rlast[conv -> ReLU -> BN] end O(output) I0 --> C1;C1 --> D1;D1 --> C2;C2 --> D2; Clast -.-> U1; U1 --> A1;A1 --> M1;M1 --> R1; R1 --> Ulast;Ulast --> Alast;Alast --> Mlast;Mlast --> Rlast; Rlast --> O; ``` 此图展示了简化版本的Attention Unet架构,其中包含了编码路径、解码路径及其间的跳跃连接。特别值得注意的是,在每个跳跃连接处都加入了一个注意力门控单元(attention gate),用来增强那些对于当前任务更重要的特征通道的影响。 #### 注意力模块工作原理 具体而言,注意力模块接收两个输入:一个是来自编码阶段同一层次的空间位置特征$x$;另一个是从更深一层传递过来经过上采样的特征映射$g$。这两个向量会共同作用在一个权重矩阵之上,并通过激活函数得到最终输出$h(x,g)$作为加权后的特征表示形式: $$ h(x, g)=\sigma(\alpha \cdot f(g)+\beta \cdot x) $$ 这里$\sigma()$代表sigmoid函数,$f()$是一个线性变换操作,而$\alpha,\beta$则分别是可训练参数。 #### 应用场景 在医学影像分析领域,尤其是肝脏CT图像分割方面,Attention Unet展现出了卓越的表现。通过对感兴趣器官或病变部位施加重磅关注,可以有效提升预测精度和鲁棒性。此外,考虑到实际部署环境可能存在的硬件资源限制情况,研究者们也在探索如何优化此类大型卷积神经网络以便更好地适应边缘计算平台的需求[^3]。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值