[论文笔记]ethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers

本文探讨了基于ViT架构的三种解码器设计方案:通过双线性上采样进行分类;采用卷积层和上采样操作交替进行特征恢复;以及从Transformer输出中选择特定特征向量进行处理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

整体网络结构

如下图,模型本质上是一个ViT+Decoder结构。

文中提出了三种decoder的设计:

a.将Transformer输出的特征维度降到分类类别数后经过双线性上采样恢复原分辨率。

b.交替使用卷积层和两倍上采样操作。为了从H/16 × W/16 × 1024 恢复到H × W × 19(19是cityscape的类别数) 需要4次操作,以恢复到原分辨率。

c. 首先将Transformer的输出{Z1,Z2,Z3…ZLe}均匀分成M等份,每份取一个特征向量。如下图,24个transformer的输出均分成4份,每份取最后一个,即{Z6,Z12,Z18,Z24} .后面的Decoder只处理这些取出的向量。

 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值