CNN+Transformer

文章探讨了CNN与Transformer结合的模型,如ViT,强调其在大量数据集上的SOTA性能。CNN擅长特征提取,Transformer则用于捕捉依赖关系。研究还提及了VisualTransformers和CvT等改进版Transformer结构,融入卷积层以提升图像处理能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

CNN+Transformer的模型可参考ViT模型,注意,此模型是基于大量数据集基础上才达到SOTA的(15M-300M时才能体现出模型的优势),数据量较少时效果不佳。
(1)CNN特征提取能力强,transformer可以更好的获取依赖关系。通过token的方式将CNN提取的特征转化,使用transformer进行分类。例如:Visual Transformers: Token-based Image Representation and Processing for Computer Vision论文
(2)修改Transformer基本结构,添加多个卷积单元,提取图像特征。例如论文:CvT: Introducing Convolutions to Vision Transformers

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值