语义分割的深度学习方法
1. 元学习与无先验知识学习概述
在计算机视觉任务中,预训练模型在迁移到新任务和领域时表现良好,但当目标数据与预训练数据差异较大时,迁移学习效果不佳。例如在医学成像、天体物理学等领域,数据分布与 ImageNet 多媒体图像不同。此时,元学习技术应运而生,它能更好地利用先前的学习步骤,即使在小数据集上进行预训练也能发挥作用。
元学习的定义是,考虑一组任务和领域 ${(T_1, D_1), \ldots, (T_n, D_n)}$,为其训练模型并学习对应的知识描述符 ${f_{k1}, f_{k2}, \ldots, f_{kn}}$。然后,引导目标任务和相关领域 $(T_T, D_T)$ 的新知识描述符 $f_{kT}$ 的学习,以最大化在 $T_T$ 上的性能,利用先前的经验和相关知识描述符,从而可以从小数据量中学习新任务。
在没有先验知识或需要无权重迁移偏差地学习新特征时,可以考虑全模型训练(端到端学习)。与迁移学习相比,端到端学习能直接学习目标问题的适当特征表示,但需要从头优化大量参数,在数据和处理预算方面成本更高。在语义分割中,端到端模型的设计和训练具有很大的自由度,常见的方法包括 FCNs、基于编码器 - 解码器和跳跃连接的模型、高分辨率模型和多任务模型。
2. 端到端学习模型
2.1 FCNs 模型
FCNs 是最早用于语义分割的深度学习方法之一,它可以依赖迁移学习,也可以从头开始训练。FCN 网络不包含全连接层,而是使用 1×1 卷积来局部合并所有特征,以进行像素级预测。
FCNs 依赖于类似分类器的骨干网络,逐步对特征进行下采样,同时提高语义级别,并引入
超级会员免费看
订阅专栏 解锁全文
1411

被折叠的 条评论
为什么被折叠?



