THULAC:高效的中文词法分析工具包
项目基础介绍和主要编程语言
THULAC(THU Lexical Analyzer for Chinese)是由清华大学自然语言处理与社会人文计算实验室开发的一款高效的中文词法分析工具包。该项目主要使用C++语言编写,同时也提供了Java、Python和so版本的实现,方便不同编程语言背景的开发者使用。
项目核心功能
THULAC的核心功能包括中文分词和词性标注。它具有以下特点:
- 能力强:利用大规模的人工分词和词性标注中文语料库(约含5800万字)训练而成,模型标注能力强大。
- 准确率高:在标准数据集Chinese Treebank(CTB5)上分词的F1值可达97.3%,词性标注的F1值可达到92.9%,与该数据集上最好方法效果相当。
- 速度较快:同时进行分词和词性标注速度为300KB/s,每秒可处理约15万字;只进行分词速度可达到1.3MB/s。
项目最近更新的功能
THULAC最近更新的功能包括:
- 2016-09-29:增加了THULAC分词的so版本,进一步扩展了项目的跨平台兼容性。
- 2016-03-31:增加了THULAC分词的Python版本,方便Python开发者使用。
- 2016-01-20:增加了THULAC分词的Java版本,为Java开发者提供了更多的选择。
- 2016-01-10:开源了THULAC分词工具的C++版本,标志着项目的正式发布。
通过这些更新,THULAC不仅在功能上得到了增强,也在使用便捷性和跨平台支持上有了显著提升。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



