
NLP
DT鸽子
这个作者很懒,什么都没留下…
展开
-
Python数据挖掘-NLP
NLTK Python上著名的⾃然语⾔处理库 自带语料库,词性分类库 自带分类,分词,等等功能 强⼤的社区支持 还有N多的简单版wrapper nltk的安装十分便捷,只需要pip就可以。相对Python2版本来说,NLTK更支持Python3版本。 pip install -U nltk # 测试是否安装成功 >>> python >>> im...原创 2018-10-26 15:03:22 · 301 阅读 · 0 评论 -
转载:Spark 使用ansj进行中文分词
转载:https://www.cnblogs.com/JustIsQiGe/p/8006734.html 在Spark中使用ansj分词先要将ansj_seg-5.1.1.jar和nlp-lang-1.7.2.jar加入工程 ansj源码github:https://github.com/NLPchina/ansj_seg ansj下载链接:https://oss.sonatype.org/...转载 2018-10-30 18:56:35 · 731 阅读 · 0 评论