之前读u-net++的时候一头雾水,所以决定反过来再看看u-net
原文:U-Net: Convolutional Networks for Biomedical Image Segmentation
开始阅读:
摘要:
人们普遍认为,深度网络的成功训练需要数千个带注释的训练样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于数据增强的强大使用,以更有效地使用可用的注释样本。该体系结构包括捕获上下文的收缩路径和支持精确定位的对称扩展路径。我们表明,这样的网络可以从很少的图像中进行端到端训练,并且在ISBI挑战中优于先前的最佳方法(滑动窗口卷积网络),以分割电子显微镜堆栈中的神经元结构。使用在透射光显微镜图像(相位对比和DIC)上训练的相同网络,我们在这些类别中以很大的优势赢得了2015年ISBI细胞跟踪挑战赛。此外,网络速度很快。在最新的GPU上,512x512图像的分割需要不到一秒的时间。
介绍:
在过去的两年中,深度卷积网络在许多视觉识别任务中的表现都超过了目前的技术水平,例如。虽然卷积网络已经存在了很长时间,但由于可用训练集的大小和所考虑的网络的大小,它们的成功受到限制。Krizhevsky等人的突破是由于在具有100万张训练图像的ImageNet数据集上对具有8层和数百万个参数的大型网络进行监督训练。从那以后,更大更深的网络被训练出来。
卷积网络的典型用途是分类任务,其中图像的输出是单个类标签。然而,在许多视觉任务中,特别是在生物医学图像处理中,期望的输出应该包括定位,即,应该为每个像素分配一个类标签。此外,成千上万的训练图像在生物医学任务中通常是遥不可及的。
因此,Ciresan等在滑动窗口设置中训练了一个网络,通过在每个像素周围提供一个局部区域(patch)来预测每个像素的类标签作为输入。首先,这个网络可以本地化。其次,以patch为单位的训练数据量远大于训练图像的数量。
显然,Ciresan等[1]的策略有两个缺点。首先,它非常慢,因为网络必须为每个补丁单独运行,并且由于重叠的补丁而存在大量冗余。其次,在定位准确性和上下文的使用之间存在权衡。较大的补丁需要更多的最大池化层,这会降低定位精度,而较小的补丁只允许网络看到很少的上下文。
在本文中,我们构建了一个更优雅的架构,即所谓的“全卷积网络”[9]。我们修改和扩展了这种架构,使其适用于很少的训练图像,并产生更精确的分割。
我们架构中的一个重要修改是,在上采样部分,我们也有大量的特征通道,这允许网络将上下文信息传播到更高分辨率的层。因此,扩张路径或多或少与收缩路径对称,并产生u形建筑。网络没有任何完全连接的层,只使用每个卷积的有效部分,即分割映射只包含像素,在输入图像中可以获得完整的上下文。
该策略允许通过重叠贴图策略对任意大的图像进行无缝分割(见图2)。为了预测图像边界区域的像素,通过镜像输入图像来推断缺失的上下文。
这种平铺策略对于将网络应用于大型图像非常重要,因为否则分辨率将受到GPU内存的限制。
对于我们的任务,可用的训练数据很少,我们通过对可用的训练图像应用弹性变形来使用过度的数据增强。
在许多细胞分割任务中的另一个挑战是同一类触摸物体的分离;参见图3。为此,我们建议使用加权损失,其中触摸单元之间的分离背景标签在损失函数中获得较大的权重。
网络体系结构
网络体系结构如图1所示。它包括一条收缩路径(左侧)和一条扩张路径(右侧)。收缩路径遵循卷积网络的典型架构。它由两个3x3卷积(未填充卷积)的重复应用组成,每个卷积后面都有一个整流线性单元(ReLU)和一个2x2 max池化操作,步幅为2,用于下采样。在每个降采样步骤中,我们将特征通道的数量加倍。扩展路径中的每一步都包括特征映射的上采样,然后是一个将特征通道数量减半的2x2卷积(\up-convolution”),一个与收缩路径中相应裁剪的特征映射的连接,以及两个3x3卷积,每个卷积后面都有一个ReLU。由于在每次卷积中边界像素的损失,裁剪是必要的。在最后一层,使用1x1卷积将每个64个组件的特征向量映射到所需的类数量。这个网络总共有23个卷积层。
训练
看不懂了,推荐大家去看GitHub (zhihu.com),写的还是比较好的,真的看不懂 wwwww