中文分词技术--统计分词

本文介绍了统计分词技术在中文处理中的主要思想和步骤,包括利用大规模语料库建立统计语言模型,以及应用HMM进行分词。统计语言模型解决了自然语言处理中的概率计算问题,而HMM模型通过动态规划的Viterbi算法找到最可能的分词路径。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

因为大规模语料的建立,统计机器学习方法的研究与发展,基于统计的中文分词成为主流

主要思想

将每个词看做是由词的最小单位字组成的,如果相连的字在大量的文本中出现的次数越多,则说明这几个字组成词的概率越大。因此可以用字与字相邻出现的频率来反映成词的可靠度,统计语料中相邻出现的各个字的组合的频度,当组合频度高于某一个临界值时,我们便认为其构成一个词。

步骤

  1. 建立统计语言模型

  2. 对句子进行单词划分,然后对划分结果进行概率统计,获得概率最大的分词方式。这里就用到了统计学习方法,如隐含马尔可夫(HMM)、条件随机场(CRF)等。

     


语言模型 

  • 统计语言模型

   统计语言模型是自然语言处理的基础,被广泛应用于机器翻译、语音识别、印刷体或手写体识别、拼音纠错、汉字输入和文献查询等。 

  • 模型原型

   语言的数学本质就是说话者将一串信息在头脑中做了一次编码,编码的结果是一串文字,而如果接受的人懂得这门语言,他就可以用这门语言的解码方式获得说话人想表达的信息。那么不免想到将编码规则教给计算机,这就是基于规则的自然语言处理。但是事实证明基于规则行不通,因为巨大的文法规则和语言的歧义性难以解决。所以出现了基于统计的自然语言处理(NLP)。基于统计的NLP的核心模型是通信系统加隐含马尔可夫模型。
看一个句子是否合理,就看它的合理性有多少,就是它出现的概率大小:
       假定句子

本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体文本的处理。 2、全文检索 1)能对给定的大批量文本分别建立基于字、词、词及词性的三种索引库; 2)打开相应的索引库后,可进行字串、词串、词及词性串的全文检索; 3)能显示检索结果的出处,点击后可自动打开对应的文本,进行具体的查阅; 4)支持语言学属性的全文检索,可控制检索串中字串的前后搭配及范围; 5)能控制检索结果中关键字串前后显示的字数并对结果中的查询关键字串以红色或蓝色显示。 3、统计 1)可对大批量文本进行字频、词频统计,可处理各级子文件夹下的文件; 2)对统计结果,提供基于字符码表、频率、拼音、部首四种方式的排序显示; 3)能对指定文件夹及子文件夹下的所有的TXT文本文件进行词频统计(对未分词文本可边自动分词统计或对已分词并经人工校对的文本进行词频统计); 4)词频统计对象不是基于词表的词才统计,而是将分词结果中所有的词进行词频统计; 5)可对统计、检索结果进行编辑并保存为TXT或RTF格式的文件。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值