超详解transformer(附图)

本文深入解析Transformer模型的工作原理,包括其编码器与解码器结构、自我注意力机制、多头注意力机制等核心概念,并介绍如何通过Transformer进行序列到序列的翻译任务。

参考paper: Attention is all you need
发现一篇比较不错的讲transformer的文章,英文原版在这里
现把它整理一下,有些词便于理解保留英文原单词。

Transformer的high level look

需要翻译的句子(法语)进入transformer后,出来翻译后的句子(英语)。
在这里插入图片描述进入transformer, 看到它是由encoding部分和decoding部分构成
在这里插入图片描述进一步拆解,每个encoding部分由一系列的encoder构成(paper中是6个,当然这个数字也可以调整),decoding部分由相同数量的decoder构成。
在这里插入图片描述encoder们的结构是相同的(但是它们不共享参数),每个encoder又由两部分组成。
在这里插入图片描述encoder的input先进入self attention层,在过一个单词时,这个self attention可以同时关注句子里的其他单词,该层的输出会进入到feed-forward网络,每个位置的单词都会有一个完全相同的feed-forward网络。

decorder也有encoder的两层,同时在两层之间还有一个attention层,帮助decoder聚焦在句子相关的部分上。
在这里插入图片描述

具体示例

下面来看一个input如何经过transformer而得到output。
假设输入一个句子,含有2个单词,首先把单词转为word embedding,是self attention层的输入,z是self attention的输出。
(训练的时候长度由训练集中最长的句子决定)
在这里插入图片描述

可以看到各单词是同时进入encoder的,它们在self attention层中有联系,但是在feed forward层是各自独立的(因为

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝羽飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值