https://arxiv.org/pdf/2105.15203.pdf
文章提出了SegFormer,encoder由金字塔Transformer组成,不使用位置编码,而是使用一个3x3的逐深度卷积。decoder使用了简单的MLP。
因为分类与语义分割有很强的联系,因此设计一个backbone用来分割是很重要的。
思考:Resnet刚开始也是作为分类使用的,然后语义分割也使用Resnet作为backbone,除此以外还有MobileNet。
VIT应用于语义分割有很多架构,而SETR则把VisionTransformer作为语义分割的backbone,PVT则是第一个在Transformer引入金字塔结构。金字塔结构可以产生高分辨率的精细特征图和低分辨率的粗略特征图。
思考:现在很多框架提出目标就是作为backbone来提取特征,传统的卷积作为encoder来提取特征,和transformer作为encoder来提取特征那个效果更好呢?
答案显而易见:如果纯粹为了MIOU,transformer可能更合适,decoder就可以设计的很简单,GPU资源有限的话,Resnet可能更合适,decoder就需要设计的很复杂。
我们看网络的架构:

1:Segformer相比于VIT可以通过

SegFormer是一种新型语义分割网络,采用金字塔Transformer结构作为encoder,并利用轻量级MLP作为decoder。该模型通过重叠patch merging和自注意力机制提高特征提取效率,实验证明其在多个数据集上的性能优于传统卷积网络。
最低0.47元/天 解锁文章
1948

被折叠的 条评论
为什么被折叠?



