一、摘要
人们普遍认为,深度网络的成功训练需要数千个带注释的训练样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于数据增强来更有效地使用可用的注释样本。该架构由一个用于捕获上下文的收缩路径和一个能够实现精确定位的对称扩展路径组成。我们表明,这样的网络可以从很少的图像进行端到端训练,并且在ISBI挑战赛中用于分割电子显微镜堆栈中的神经元结构,其性能优于先前的最佳方法(滑动窗口卷积网络)。使用在透射光显微镜图像(相差和DIC)上训练的相同网络,我们在这些类别中大幅赢得了2015年ISBI细胞跟踪挑战赛。此外,网络速度很快。在最近的GPU上分割512x512图像只需不到一秒的时间。完整的实现(基于Caffe)和经过训练的网络可在http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net获得。
二、引言
在过去的两年里,深度卷积网络在许多视觉识别任务中的表现都超过了最先进的水平,例如,虽然卷积网络已经存在了很长时间,但由于可用训练集的大小和所考虑网络的大小,它们的成功受到了限制。Krizhevsky等人的突破。是由于在具有100万张训练图像的ImageNet数据集上对具有层和数百万参数的大型网络进行了监督训练。从那时起,已经训练了更大更深的网络。
卷积网络的典型用途是分类任务,其中图像的输出是单个类标签。然而,在许多视觉任务中,尤其是在生物医学图像处理中,