word_list = jieba.cut('对比一下jieba中的cut函数与lcut函数的区别')
这样print(word_list) 得到是 <generator object Tokenizer.cut at 0x0000025E90D1C190>
如果想得到分词后的结果 print(('|'.join(word_list)))
得到结果 对比|一下|jieba|中|的|cut|函数|与|lcut|函数|的|区别
而
word_list_lcut = jieba.lcut('对比一下jieba中的cut函数与lcut函数的区别', cut_all=False)
可以直接得到分词后的结果字符串
['对比', '一下', 'jieba', '中', '的', 'cut', '函数', '与', 'lcut', '函数', '的', '区别']
import jieba
word_list = jieba.cut('对比一下jieba中的cut函数与lcut函数的区别')
word_list_lcut = jieba.lcut('对比一下jieba中的cut函数与lcut函数的区别', cut_all=False)
print(word_list)
print(('|'.join(word_list)))
print(word_list_lcut)