
Transformer
文章平均质量分 87
fadedtj
这个作者很懒,什么都没留下…
展开
-
AAAI 2021最佳论文 Informer
AAAI 2021最佳论文 Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting背景Transformer的问题Informer解决的问题第一作者来自北航的Haoyi Zhou,由北航、UC伯克利、 罗格斯大学以及北京国网富达公司共同协作完成。本文设计了一种专为LSTF (长序列时间序列预测)设计的基于Transformer模型 Informer,来解决Transformer在应用于LSTF时存在一原创 2021-05-25 22:25:41 · 11919 阅读 · 12 评论 -
DETR: DEtection + TRansformer 将transformer引入CV的首创
【目标检测】DETR —— End-to-End Object Detection with TransformersDETR原理论文名称:End-to-End Object Detection with Transformers原文地址:https://arxiv.org/abs/2005.12872开源地址:DETR原理任务:Object Detection 目标检测(主要关注于目标检测,作者还将DETR generalize 到 panoptic segmentation 任务上,DETR表原创 2021-05-14 17:09:58 · 1068 阅读 · 0 评论 -
Transformer初学习(一)
Transformer 初学习Self-attention为什么提出Self-attentionSelf-attention如何平行运算Self-attention为什么提出Self-attention我们现在有a1, a2, a3, a4四个输入,先来看一下RNN是怎么做的对于这个结构来说,必须要计算完前一个RNN,才能开始不断更新下一个RNN。也就是说,我们必须按照a1–>a2–>a3–>a4的顺序最终得到b4,不能够平行运算(Hard to parallel !)那么就有原创 2021-03-24 11:05:25 · 276 阅读 · 0 评论