一文读懂BERT中的WordPiece

本文深入探讨了BERT模型中的WordPiece技术,重点讲解了BPE(Byte-Pair Encoding)算法的工作原理及其在NLP任务中的应用优势。通过实例演示了BPE如何优化词表,提升词义区分度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 前言

2018年最火的论文要属google的BERT,不过今天我们不介绍BERT的模型,而是要介绍BERT中的一个小模块WordPiece。

2. WordPiece原理

现在基本性能好一些的NLP模型,例如OpenAI GPT,google的BERT,在数据预处理的时候都会有WordPiece的过程。WordPiece字面理解是把word拆成piece一片一片,其实就是这个意思。

WordPiece的一种主要的实现方式叫做BPE(Byte-Pair Encoding)双字节编码。

BPE的过程可以理解为把一个单词再拆分,使得我们的此表会变得精简,并且寓意更加清晰。

比如"loved","loving","loves"这三个单词。其实本身的语义都是“爱”的意思,但是如果我们以单词为单位,那它们就算不一样的词,在英语中不同后缀的词非常的多,就会使得词表变的很大,训练速度变慢,训练的效果也不是太好。

BPE算法通过训练,能够把上面的3个单词拆分成"lov","ed","ing","es"几部分,这样可以把词的本身的意思和时态分开,有效的减少了词表的数量。

3. BPE算法

BPE的大概训练过程:首先将词分成一个一个的字符,然后在词的范围内统计字符对出现的次数,每次将次数最多的字符对保存起来,直到循环次数结束。

我们模拟一下BPE算法。

我们原始词表如下:

{'l o w e r ': 2, 'n e w e s t ': 6, 'w i d e s t ': 3, 'l o w ': 5}

其中的key是词表的单词拆分层字母,再加代表结尾,value代表词出现的频率。

下面我们每一步在整张词表中找出频率最高相邻序列,并把它合并,依次循环。

原始词表 {'l o w e r </w>': 2, 'n e w e s t </w>': 6, 'w i d e s t </w>': 3, 'l o w </w>': 5}
出现最频繁的序列 ('s', 't') 9
合并最频繁的序列后的词表 {'n e w e st </w>': 6, 'l o w e r </w>': 2, 'w i d e st </w>': 3, 'l o w </w>': 5}
出现最频繁的序列 ('e', 'st') 9
合并最频繁的序列后的词表 {'l o w e r </w>': 2, 'l o w </w>': 5, 'w i d est </w>': 3, 'n e w est </w>': 6}
出现最频繁的序列 ('est', '</w>') 9
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'l o w e r </w>': 2, 'n e w est</w>': 6, 'l o w </w>': 5}
出现最频繁的序列 ('l', 'o') 7
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'lo w e r </w>': 2, 'n e w est</w>': 6, 'lo w </w>': 5}
出现最频繁的序列 ('lo', 'w') 7
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'low e r </w>': 2, 'n e w est</w>': 6, 'low </w>': 5}
出现最频繁的序列 ('n', 'e') 6
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'low e r </w>': 2, 'ne w est</w>': 6, 'low </w>': 5}
出现最频繁的序列 ('w', 'est</w>') 6
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'low e r </w>': 2, 'ne west</w>': 6, 'low </w>': 5}
出现最频繁的序列 ('ne', 'west</w>') 6
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'low e r </w>': 2, 'newest</w>': 6, 'low </w>': 5}
出现最频繁的序列 ('low', '</w>') 5
合并最频繁的序列后的词表 {'w i d est</w>': 3, 'low e r </w>': 2, 'newest</w>': 6, 'low</w>': 5}
出现最频繁的序列 ('i', 'd') 3
合并最频繁的序列后的词表 {'w id est</w>': 3, 'newest</w>': 6, 'low</w>': 5, 'low e r </w>': 2}

这样我们通过BPE得到了更加合适的词表了,这个词表可能会出现一些不是单词的组合,但是这个本身是有意义的一种形式,加速NLP的学习,提升不同词之间的语义的区分度。

4. 学习资料

介绍一些关于WordPiece和BPE的资料供同学们参考。

5. 总结

WordPiece或者BPE这么好,我们是不是哪里都能这么用呢?其实在我们的中文中不是很适用。首先我们的中文不像英文或者其他欧洲的语言一样通过空格分开,我们是连续的。其次我们的中文一个字就是一个最小的单元,无法在拆分的更小了。在中文中一般的处理方式是两中,分词和分字。理论上分词要比分字好,因为分词更加细致,语义分的更加开。分字简单,效率高,词表也很小,常用字就3000左右。

转载于:https://www.cnblogs.com/huangyc/p/10223075.html

### Transformers框架的原理 Transformers框架的核心基于Transformer架构,这是一种由Vaswani等人于2017年提出的神经网络模型[^4]。该架构主要分为两个部分:Encoder(编码器)和Decoder(解码器)。然而,在实际应用中,某些变体可能仅使用其中一个部分。 #### 输入表示 对于像BERT这样的模型,其输入是由三种嵌入向量相加构成的:Token Embeddings、Positional Embeddings以及Segment Embeddings[^1]。这种组合允许模型不仅学习单词的意义及其位置关系,还能区分不同句子片段间的差异。 #### 架构组成 - **自注意力层**:这是Transformer的关键创新之一,它让模型可以关注到输入序列的不同部分,从而捕捉更丰富的语义信息[^3]。 - **前馈神经网络**:应用于每一个位置上的独立转换操作,增加了表达能力。 - **归一化与残差连接**:通过加入这些技术来改善深层结构的学习效果并防止梯度消失问题的发生[^3]。 ### 使用教程 要开始使用Transformers库来进行自然语言处理任务,可以从安装Hugging Face提供的`transformers`包入手: ```bash pip install transformers ``` 加载预训练好的模型非常简便,比如下面是如何加载BERT用于分词的例子: ```python from transformers import BertTokenizer, TFBertModel tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = TFBertModel.from_pretrained("bert-base-uncased") inputs = tokenizer("Hello world!", return_tensors="tf") outputs = model(inputs) print(outputs.last_hidden_state) ``` 这段代码展示了如何初始化一个BERT tokenizer 和对应的TF (TensorFlow) 版本的 BERT 模型,并对一句话进行了编码得到隐藏状态作为输出。 ### 实战案例 - 计算词语相似度 如果想探索词汇间的关系,则可以通过Word Embedding实现这一点。这里给出一段简单的Python脚本来展示这一过程[^5]: ```python from gensim.models import KeyedVectors # 加载Google News pre-trained vectors word_vectors = KeyedVectors.load_word2vec_format('./GoogleNews-vectors-negative300.bin', binary=True) similar_words = word_vectors.most_similar('king', topn=5) for w,score in similar_words: print(f"{w}: {score}") ``` 此示例说明了如何利用预先训练好的谷歌新闻数据集中的词向量找到最接近给定单词的概念。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值