5、深入了解Transformer与BERT模型

深入了解Transformer与BERT模型

1. Transformer模型架构
1.1 前馈网络(FFN)

前馈网络(FFN)的输入是上一子层层归一化(post - LN)后的输出,维度为 dmodel = 512 。FFN具有以下特点:
- 编码器和解码器中的FFN是全连接的。
- 它是按位置处理的网络,每个位置独立且以相同方式处理。
- 包含两层,并应用ReLU激活函数。
- 输入和输出维度为 dmodel = 512 ,但内层维度 dff = 2048
- 可视为进行两次大小为1的卷积操作。

优化和标准化后的FFN可表示为: FFN(x) = max (0, xW1 + b1) W2 + b2 。其输出经过层归一化后,被发送到编码器栈的下一层和解码器栈的多头注意力层。

1.2 解码器栈

Transformer模型的解码器层与编码器层类似,也是层的堆叠。每个解码器层包含三个子层:多头掩码注意力机制、多头注意力机制和全连接的按位置前馈网络。

解码器的第三个主要子层是掩码多头注意力机制,在该子层输出的给定位置,后续单词被掩码,使模型在推理时不依赖于序列的其余部分,即无法看到序列的未来部分。

每个主要子层都有残差连接 Sublayer(x) ,并进行层归一化: LayerNormalization (x + Sublayer(x)) 。嵌入层子层仅存在于栈的底层

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值