文本分词与WordNet基础
1. 简介
自然语言工具包(NLTK)是一个用于自然语言处理和文本分析的综合Python库。最初为教学而设计,因其实用性和广泛的覆盖范围,已被行业用于研究和开发。NLTK常用于文本处理程序的快速原型开发,甚至可用于生产应用。
2. 文本分词基础
分词是将一段文本拆分成多个部分(如句子和单词)的方法,是后续文本处理的重要第一步。WordNet是一个专为自然语言处理系统设计的字典,具有多种用途,如查找单词定义、寻找同义词和反义词、探索单词关系和相似度以及进行词义消歧等。NLTK包含一个WordNet语料库阅读器,可用于访问和探索WordNet。
3. 文本分句
3.1 准备工作
- 安装NLTK:安装说明可在http://nltk.org/install.html 找到,当前最新版本为3.0b1,该版本基于Python 3.0及以上构建,但向后兼容Python 2.6及以上版本。
- 安装数据:按照http://nltk.org/data.html 的说明安装数据,建议安装所有数据,因为后续会使用多个语料库和序列化对象。数据安装在数据目录中,Mac和Linux/Unix系统通常为/usr/share/nltk_data,Windows系统为C:\nltk_data。确保tokenizers/punkt.zip在数据目录中并已解压,使得tokenizers/punkt/PY3/english.pickle文件存在。
- 启动Python控制台:启动说明可在http://nltk.org/install.html 找到,Mac和Linux
超级会员免费看
订阅专栏 解锁全文
18

被折叠的 条评论
为什么被折叠?



