概述
首先我们简单考虑一下什么是语义分割?
语义分割是从粗推理到精推理的自然步骤。原点可以定位在分类,分类包括对整个输入进行预测。下一步是本地化/检测,它不仅提供类,还提供关于这些类的空间位置的附加信息。最后,语义分割通过对每个像素进行密集的预测、推断标签来实现细粒度的推理,从而使每个像素都被标记为其封闭对象区域的类别。

其实简单来说,**语义分割就是像素级别的图像分类。**我们以下边一幅图为例:左侧是原图,右侧是经过图像分割之后的图片,结果图中我们可以看到,经过图片分割后,不同类别的物体,例如行人飞机、房子等被分别标记成不同的颜色。

Deeplabv1是谷歌14年提出的语义分割算法,它解决语义分割分割问题的基本思想就将卷积神经网络(DCNNs)和概率图模型(DenseCRFs)进行结合。简单来说,DeepLab是结合了深度卷积神经网络(DCNNs)和概率图模型(DenseCRFs)的方法。具体结合方式是这样的:将每个像素视为CRF节点,利用远程依赖关系,并使用CRF推理直接优化DCNN的损失函数。
算法

整个算法处理过程是这样的:首先对输入的图片经过DCNN网络处理,得到其初步的得分图,然后通过双线性插值,扩大图片尺寸,进而经过全连接CRF处理之后

最低0.47元/天 解锁文章
1232

被折叠的 条评论
为什么被折叠?



