Datawhale NLP课程 Task3

本文详细解读BERT模型的Tokenization分词步骤,包括BasicTokenizer和WordPieceTokenizer,以及BertModel的组成部分,如BertEmbeddings、BertEncoder的BertLayer,特别是BertAttention机制。深入解析了Transformer架构中关键模块的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

BERT结构:
在这里插入图片描述

  1. BERT Tokenization 分词模型(BertTokenizer)
  • BasicTokenizer负责处理的第一步——按标点、空格等分割句子,并处理是否统一小写,以及清理非法字符。
  • WordPieceTokenizer在词的基础上,进一步将词分解为子词(subword)。
  1. BERT Model 本体模型(BertModel)
    2.1 BertEmbeddings
    根据单词符号获取对应的向量表示。
    在这里插入图片描述
    三个 embedding 不带权重相加,并通过一层 LayerNorm+dropout 后输出,其大小为(batch_size, sequence_length, hidden_size)。

2.2 BertEncoder
2.2.1 BertLayer
2.2.1.1 BertAttention
BERT结构的核心部分
2.2.1.2 BertIntermediate
全连接 + 激活
2.2.1.3 BertOutput
在这里又是一个全连接 +dropout+LayerNorm,还有一个残差连接 residual connect

2.2.2 BertPooler
这一层只是简单地取出了句子的第一个token,即[CLS]对应的向量,然后过一个全连接层和一个激活函数后输出:(这一部分是可选的,因为pooling有很多不同的操作)

Reference
https://github.com/datawhalechina/Learn-NLP-with-Transformers

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值