
transformer
文章平均质量分 93
不是二哈的柯基
这个作者很懒,什么都没留下…
展开
-
Swin Transformer
Swin Transformer是 ICCV 21的最佳论文,它之所以能有这么大的影响力主要是因为在 ViT 之后,Swin Transformer通过在一系列视觉任务上的强大表现 ,进一步证明了Transformer是可以在视觉领域取得广泛应用的。原创 2023-07-16 17:36:31 · 281 阅读 · 0 评论 -
VIT transformer详解
虽然 Transformer 架构已成为 NLP 任务的事实标准,但它在 CV 中的应用仍然有限。在视觉上,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构。我们证明了这种对 CNN的依赖是不必要的,直接应用于图像块序列 (sequences of image patches) 的纯 Transformer 可以很好地执行 图像分类 任务。原创 2023-07-11 20:37:57 · 2104 阅读 · 1 评论 -
Transformer
效果好可以并行训练,速度快很好地解决了长距离依赖的问题缺点:1.完全基于self-attention,对于词语位置之间的信息有一定的丢失,虽然加入了positional encoding来解决这个问题,但也还存在着可以优化的地方。原创 2023-07-09 16:46:47 · 519 阅读 · 0 评论 -
Attention is All You Need(Transformer入门)
谷歌团队2018提出的用于生成词向量的BERT算法在NLP的11项任务中取得了非常出色的效果,堪称2018年深度学习领域最振奋人心的消息。而BERT算法又是基于Transformer,Transformer又是基于attention机制。目前大部分attention模型都是依附于Encoder-Decoder框架进行实现,在NLP中Encoder-Decoder框架主要被用来处理序列-序列问题。文本摘要,输入一篇文章(序列数据),生成文章的摘要(序列数据)原创 2023-07-02 10:24:04 · 276 阅读 · 0 评论