- 博客(3)
- 资源 (1)
- 收藏
- 关注
原创 变形金刚Transformer(2017) -万字长文详解
关注我Transformer是谷歌在2017年的论文《Attention Is All You Need》中提出的,用于NLP的各项任务,在NLP领域中,几乎已经全面取代了RNN;在CV领域也是大放异彩,与CNN分庭抗礼,占据了半壁江山!Transformer中没有用的RNN也没有CNN(但会用到与RNN、CNN相关的先验的知识)。Transformer网络架构能够干所有Seq2Seq (with Attention) 能干的事情,并且效果更好。
2024-07-01 16:09:54
1455
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人