bigram分词

N-gram:

P(w1w2w3...wn)=P(w1)P(w2|w1)P(w3|w2,w1)...P(wn|wn-1,wn-2,...,w1)

bigram的语言模型:P(w1w2w3...wn)=P(w1)P(w2|w1)P(w3|w2)...P(wn|wn-1)

                                 P(wn|wn-1)=count(wn,wn-1)/count(wn-1)

N-gram的基本思想是将文本内容按字节流进行大小为N的滑动窗口操作,形成长度为N的字节片段序列,每个字节片段即为gram,对全部gram的出现频度进行统计,并按照设定的阈值进行过滤,形成keygram列表,即为该文本的特征向量空间,每一种gram则为特征向量维度。

中文文本处理大多采用bi-gram进行分解,因为双字词出现概率比较大,即以大小为2的滑动窗口进行操作,切成长度为2的字节片段;

bigram切分方法在处理20%左右的中文多字词时,往往产生语义和语序方面的偏差。而多字词常常是文本的核心特征,处理错误会导致较大的负面影响。

自动产生多字特征词:基于n-gram改进的文本特征提取算法,在进行bigram切分时,不仅统计gram的出现频度,而且还统计某个gram与其前邻gram的情况,并将其记录在gram关联矩阵中,对于连续出现频率大于事先设定阈值的,就将其合并为多字特征词,可以较好弥补n-gram算法在处理多字词方面的缺陷。

听说这是一种比较简单粗暴有效的方法


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值