bert模型中的[CLS]、[UNK]、[SEP]

一般我们就用训练集出一个模型,然后可以在其他的代码里读取这个模型来使用。其他的代码就是所谓的下游任务(比如·什么分类NER什么的)。BERT只是出一个词向量,这个向量不接任务你也看不出什么东西。这种分开训的就叫pipline,如果bert和下游任务一起训就叫end-to-end

BERT 的输入可以包含一个句子对 (句子 A 和句子 B),也可以是单个句子。此外还增加了一些有特殊作用的标志位:

  • [CLS] 标志放在第一个句子的首位,经过 BERT 得到的的表征向量 C 可以用于后续的分类任务。
  • [SEP]标志用于分开两个输入句子,例如输入句子 A 和 B,要在句子 A,B 后面增加 [SEP] 标志。
  • [UNK]标志指的是未知字符
  • [MASK] 标志用于遮盖句子中的一些单词,将单词用 [MASK] 遮盖之后,再利用 BERT 输出的 [MASK] 向量预测单词是什么。

[CLS]就是classification的意思,可以理解为用于下游的分类任务。

主要用于以下两种任务:

单文本分类任务:对于文本分类任务,BERT模型在文本前插入一个[CLS]符号,并将该符号对应的输出向量作为整篇文本的语义表示,用于文本分类,如下图所示。可以理解为:与文本中已有的其它字/词相比,这个无明显语义信息的符号会更“公平”地融合文本中各个字/词的语义信息。
在这里插入图片描述

语句对分类任务:该任务的实际应用场景包括:问答(判断一个问题与一个答案是否匹配)、语句匹配(两句话是否表达同一个意思)等。对于该任务,BERT模型除了添加[CLS]符号并将对应的输出作为文本的语义表示,还对输入的两句话用一个[SEP]符号作分割,并分别对两句话附加两个不同的文本向量以作区分,如下图所示。
在这里插入图片描述

cls输入的是cls本身这个词的embedding

### 创建自定义分词器以适配 BERT 模型 为了使 BERT 模型能够处理特定领域或数据集中的文本,创建一个自定义分词器是非常重要的。这可以通过使用 `Hugging Face` 的工具包并结合 `SentencePiece` 来完成。 #### 使用 SentencePiece 训练自定义分词器 首先,安装必要的库: ```bash pip install sentencepiece transformers ``` 接着,准备用于训练分词器的数据文件,并编写 Python 脚本来执行此操作: ```python import sentencepiece as spm from tokenizers import Tokenizer, models, pre_tokenizers, decoders, processors, trainers # 准备训练语料库路径 corpus_file = "path/to/corpus.txt" # 配置参数 model_prefix = 'custom_bert' vocab_size = 32000 character_coverage = 0.9995 # 对于中文、日文等字符覆盖度设置较高值 spm.SentencePieceTrainer.Train(f'--input={corpus_file} --model_prefix={model_prefix} \ --character_coverage={character_coverage}') ``` 上述脚本会基于给定的语料库生成两个文件:一个是 `.model` 文件,另一个是 `.vocab` 文件[^2]。 #### 将自定义分词器集成到 BERT 中 一旦有了训练好的分词器模型和词汇表,就可以利用这些资源构建一个新的 tokenizer 类实例并与 BERT 结合起来工作。下面是如何做到这一点的一个例子: ```python from transformers import BertTokenizerFast tokenizer = BertTokenizerFast( vocab_file='custom_bert.vocab', tokenizer_file=None, do_lower_case=False, unk_token="[UNK]", pad_token="[PAD]", cls_token="[CLS]", sep_token="[SEP]", mask_token="[MASK]" ) special_tokens = ["[UNK]", "[PAD]", "[CLS]", "[SEP]", "[MASK]"] trainer = trainers.WordPieceTrainer(vocab_size=25000, special_tokens=special_tokens) tokenizer.train(trainer) print(tokenizer.encode("这是一个测试")) ``` 这里需要注意的是,在初始化 `BertTokenizerFast` 实例时传入了之前由 `SentencePiece` 产生的词汇表文件名 (`custom_bert.vocab`) 和其他一些特殊的标记符作为参数。这样做之后,就成功地将自定义分词逻辑嵌入到了 BERT 所使用的分词过程中[^3]。 此外,还可以根据实际需求调整 BERT 的词汇配置来更好地支持下游任务的要求[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值