tokenizer.encode()_不知道起什么名字-优快云博客_tokenizer.encode
tokenizer.encode("说你跑的挺远",add_special_tokenizerns=False)
相当于
seg=tokenizer.tokenize("说你跑的挺远")
encoder = tokenizer.convert_tokenizerns_to_ids(seg)

https://blog.youkuaiyun.com/Princeicon/article/details/108052302
这篇博客详细介绍了`tokenizer.encode()`方法的使用,它等价于先进行分词,然后将分词结果转化为ID。通过示例`tokenizer.encode(说你跑的挺远 add_special_tokens=False)`,解释了如何避免添加特殊标记。对于理解和操作自然语言处理中的文本编码过程非常有帮助。
3万+

被折叠的 条评论
为什么被折叠?



