用stanfordCoreNLP进行中文分词时出现json编码错误

本文介绍了在使用StanfordCoreNLP进行中文分词时遇到的JSON解析错误,并提供了从4.2版本降级到3.9版本以及下载历史版本和配置中文支持包的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

用stanfordCoreNLP进行中文分词时出现错误json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)

最近准备使用stanfordCoreNLP进行中文分词,使用的是最新的coreNLP4.2版本,即使运行简单的下面代码,都会报错

from stanfordcorenlp import StanfordCoreNLP
nlp = StanfordCoreNLP(r'stanfordnlp', lang="zh")
sentence = "清华大学位于北京"
print(nlp.ner(sentence))

报错截图如下所示

在这里插入图片描述

经过搜索,发现可能是版本问题,因为python包stanfordcorenlp 3.9.1.1最新的版本也是3.9,然后还是2018年发布的,所以将coreNLP的版本从最新的4.2换成2018年的3.9版本。

可以在这个地址下载coreNLP的历史版本https://stanfordnlp.github.io/CoreNLP/history.html,注意要将中文支持包也要下载。

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值