深入探索:从分词器训练到模型构建的全流程指南
1. 分词器训练的必要性与挑战
在处理Python代码时,我们使用字节对编码(BPE)分词器对代码进行分词。以如下代码为例:
print(tokenizer(python_code).tokens())
['def', 'Ġsay', '_', 'hello', '():', 'Ċ', 'Ġ', 'Ġ', 'Ġ',
'Ġprint', '("',
'Hello', ',', 'ĠWorld', '!"', ')', 'Ġ', 'Ġ#', 'ĠPrint', 'Ġit',
'Ċ', 'Ċ',
'say', '_', 'hello', '()', 'Ċ']
可以看到,BPE分词器保留了大部分单词,但会将缩进的多个空格拆分为几个连续的空格。这是因为该分词器主要是在文本数据上进行训练,而连续空格在文本中较为罕见,所以在词汇表中没有专门用于缩进的标记。这属于模型与语料库不匹配的情况,当数据集足够大时,解决方案是在目标语料库上重新训练分词器。
2. 重新训练分词器
重新训练Transformers库中的分词器非常简单,只需遵循以下步骤:
1. 指定目标词汇表大小。
2. 准备一个迭代器,用于提供要处理的输入字符串列表,以训练分词器的模型。
3. 调用 train_new_from_iterator 方法。
下面是一个简单的示例,展示了如何重新训练一个字节级BPE分词器:
超级会员免费看
订阅专栏 解锁全文
845

被折叠的 条评论
为什么被折叠?



