在做数据分析的时候,遇到没有下载stopwords的错误
LookupError:
**********************************************************************
Resource stopwords not found.
Please use the NLTK Downloader to obtain the resource:
>>> import nltk
>>> nltk.download('stopwords')
Searched in:
- 'C:\\Users\\dell/nltk_data'
- 'C:\\nltk_data'
- 'D:\\nltk_data'
- 'E:\\nltk_data'
- 'D:\\Users\\dell\\Anaconda3\\nltk_data'
- 'D:\\Users\\dell\\Anaconda3\\share\\nltk_data'
- 'D:\\Users\\dell\\Anaconda3\\lib\\nltk_data'
- 'C:\\Users\\dell\\AppData\\Roaming\\nltk_data'
**********************************************************************
Process finished with exit code 1
通过简单的nltk.download()下载所需要的文件,但是,这会出现网络问题,非常慢,甚至直接连不上。所以离线下载了整个nltk_data
网址:
https://github.com/nltk/nltk_data/tree/gh-pages
下载得到nltk_data-gh-pages.zip文件。
解压出来的文件夹package挪到对应的nltk搜索目录下。并且将packages文件夹重新命名为nltk_data。我放到了如下的对应位置中:
在生成词云的时候我遇到了另一个问题:
LookupError:
**********************************************************************
Resource punkt not found.
Please use the NLTK Downloader to obtain the resource:
>>> import nltk
>>> nltk.download('punkt')
Searched in:
- 'C:\\Users\\dell/nltk_data'
- 'C:\\nltk_data'
- 'D:\\nltk_data'
- 'E:\\nltk_data'
- 'D:\\Users\\dell\\Anaconda3\\nltk_data'
- 'D:\\Users\\dell\\Anaconda3\\share\\nltk_data'
- 'D:\\Users\\dell\\Anaconda3\\lib\\nltk_data'
- 'C:\\Users\\dell\\AppData\\Roaming\\nltk_data'
- ''
**********************************************************************
Process finished with exit code 1
离线下载资源包:
https://download.youkuaiyun.com/download/weixin_44214151/12318083
解压后放在如下图位置,就可以使用了
参考博客:
https://blog.youkuaiyun.com/qq_43140627/article/details/103895811