如图,text是一句中文语句,调用百度的AipNlp的接口进行词性分析后返回的结果是unicode编码。无法正常的看到每个分词的词性。

解决方法:
import json print json.dumps(ret, encoding="UTF-8", ensure_ascii=False)

解决中文词性分析Unicode显示问题
本文介绍了一种在使用百度AipNlp接口进行中文语句词性分析时,如何解决返回结果为Unicode编码导致无法正常查看词性的方法。通过使用Python的json模块,设置正确的编码方式,可以清晰地展示每个分词及其对应的词性。
如图,text是一句中文语句,调用百度的AipNlp的接口进行词性分析后返回的结果是unicode编码。无法正常的看到每个分词的词性。

解决方法:
import json print json.dumps(ret, encoding="UTF-8", ensure_ascii=False)

213

被折叠的 条评论
为什么被折叠?