Non-local U-Nets

本文深入探讨Non-local U-Net架构,包括U-Net、ResidualBlocks与GlobalAggregationBlock三大组件。解析U-Net中concatenation到sum转换的原因,及如何通过残差连接提升模型训练效率。详细阐述四种残差块设计与全局信息融合机制。

code tensorflow
Non-local 由三个部分组成:
U-Net、Residual Blocks、Global Aggregation Block

U-Net

在这里插入图片描述
作者将原始u-net的concatenation -> sum的原因:

  1. 求和不会增加特征图的数量,因此会减少下一层中可训练参数的数量。
  2. 具有求和的skip connection可以被视为远程残差连接,可以促进模型的训练。

最后生成概率分割图

Residual Blocks

已知:U-Net中的skip connection 相当于 远程残差连接
2017 paper:在U-Net中增加短距离的残差连接可以提高性能

但是,之前的研究没有将残差连接用在上采样模块和下采样模块之中,基于此,提出了 global aggregation block

下面是作者提出的用于non-local U-Net中的四个残差块
在这里插入图片描述
(a)常规残差块。 该块用作输入块。 输出块由该块+步长为1的1x1x1的卷积构成。此外,在跳跃连接求和之后,我们插入一个这样的块。
(b)是下采样残差块。 将此块用作下采样块。
(c)说明了我们的底部模块。 残差连接应用了我们提出的全局聚合块。
(d)上采样残差块,(b)中的下采样块相似,恒等残差连接被步长为2的3×3×3反卷积代替,另一个分支是上采样全局聚合块。 使用此块作为上采样块.

Global Aggregation Block

实现全局信息融合:输出特征图的每个位置都应取决于输入特征图的所有位置。 (与卷积和反卷积等局部操作相反),可以通过self-attention来聚合(aggregation)图像特征图的全局信息。

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值