摘要:人们普遍认为,深度网络的成功训练需要数千个带注释的训练样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于大量使用数据增强来更有效地使用可用的注释样本。该体系结构包括用于捕获上下文的收缩路径和用于实现精确定位的对称扩展路径。我们表明,这样的网络可以从很少的图像进行端到端训练,并且在 ISBI 挑战中优于先前的最佳方法(滑动窗口卷积网络),用于分割电子显微堆栈中的神经元结构。使用在透射光显微镜图像(相差和 DIC)上训练的相同网络,我们在这些类别中以大幅优势赢得了 2015 年 ISBI 细胞跟踪挑战。而且,网络速度很快。在最新的 GPU 上分割 512x512 图像只需不到一秒。完整的实施(基于 Caffe)和经过训练的网络可在 http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net上获得。
引言
在过去的两年中,深度卷积网络在许多视觉识别任务中的表现优于现有技术,例如:虽然卷积网络已经存在了很长时间 ,但由于可用训练集的大小和所考虑网络的大小,它们的成功是有限的。 Krizhevsky 等人的突破是由于在具有 100 万训练图像的 ImageNet 数据集上对具有 8 层和数百万参数的大型网络进行了监督训练。从那时起,已经训练了更大更深的网络 。
卷积网络的典型用途是分类任务,其中图像的输出是单个类别标签。然而,在许多视觉任务中,尤其是在生物医学图像处理中,所需的输出应该包括定位,即应该为每个像素分配一个类标签。此外,数以千计的训练图像在生物医学任务中通常是遥不可及的。因此,Ciresan 等人在滑动窗口设置中训练了一个网络,通过提供该像素周围的局部区域(补丁)作为输入来预