亲测可用!!!!!
注意是bytelevel的BPE!!
只有vocab.json是不ok的,只能encode单字节的字符,对于中文这种会encode之后tokens,ids都是[]。
P.S.
BertTokenizer会有UNK,不在词表中的字符会识别为UNK,而不是用unicode编码。SentencePiece只能加载tokenizer.model。我用models.BPE:
from tokenizers import Tokenizer, pre_tokenizers, models
import json
with open("/xx/vocab_files/cl100k_base_vocab_str2id.json", "r") as file:
vocab = json.load(file)
tokenizer = Tokenizer(models.BPE())
tokenizer.add_tokens(list(vocab.keys()))
text="喵喵喵cat"
tokens = tokenizer.encode(text).tokens
ids = tokenizer.encode(text).ids
print(tokens, ids)
这篇博客介绍了如何使用tiktoken进行GPT4的字节级BPE编码,强调了只有vocab.json是不够的,需要merge.txt文件以正确处理多字节字符,如中文。通过示例展示了使用BPE模型加载vocab并编码文本的过程,同时也提到了其他相关的GPT-4 tokenizer资源和网传版本。
订阅专栏 解锁全文
3067

被折叠的 条评论
为什么被折叠?



