因为使用jieba分割后得到的是字典类文档,我不会进行处理,所以尝试着使用nltk包的nltk.sent_tokenize(text)方法进行词句分割(这个忙了一天,结果发现他是把每一句的词排成一个数列,还是不行,又回去用jieba了)
2021-07-08
jieba与nltk:词句分割的困惑与解决
最新推荐文章于 2021-11-10 17:26:45 发布
本文讲述了作者在处理使用jieba分词后遇到的问题,转向nltk的sent_tokenize方法,但发现其返回的是句子的词序列。最终回归jieba,记录了这一过程和解决方案。
5万+

被折叠的 条评论
为什么被折叠?



