
VIT
文章平均质量分 62
xmrmol
这个作者很懒,什么都没留下…
展开
-
Swim Transformer代码环境配置纪录
Swim transformer代码及环境配置原创 2022-12-26 11:53:35 · 801 阅读 · 1 评论 -
pyinn安装
pyinn安装问题原创 2022-11-08 10:48:19 · 987 阅读 · 1 评论 -
ubuntu18.04cuda安装
ubuntu18.04安装cuda原创 2022-11-08 10:46:23 · 1013 阅读 · 0 评论 -
Transformer
Transformer的整体架构为 图1 大框架分为了Encoder和Decoder,其中最为特殊的结构就是Multi-Head Attention,就是多头注意力机制。现在先讲注意力机制(self-attention): self-attention 这个结构是处理序列信息,RNN处理序列是需要处理前面的信息得到特征,然后根据前面的特征再得到后面信息的特征,所以是有先后关系的,如果我们要得到t时刻的特征,就要计算前t-1时刻的特征。而self-attention不需要,它最关键的优点是可以同时得到这个序列原创 2022-04-22 11:33:44 · 1586 阅读 · 0 评论