语言模型/N-Gram模型

N-Gram模型基于马尔科夫假设,认为词的出现依赖于前有限个词。这种模型在中文中称为汉语语言模型CLM,常用的是Bi-Gram和Tri-Gram,它们分别依赖前一个和前两个词来预测下一个词。然而,N-Gram模型面临参数空间大和数据稀疏的问题,使用最大似然估计来计算条件概率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

N-Gram

马尔科夫假设:
一个词的出现仅仅依赖于它前面出现的有限的一个或几个词。

N-Gram模型用于中文,称为汉语语言模型CLM。

该模型基于这样的假设,第n个词的出现只与前面N-1个词相关,而与其他任何词都不相关,整句话的概率就是各个词出现概率的乘积。这些词的概率可以通过直接从语料库中统计N个词同时出现的次数得到。

假设语句T是由词序列W1,W2,W3,…Wn组成的,那么

P(T)=P(W1W2W3Wn)=P(W1)P(W2|W1)P(W3|W1W2)…P(Wn|W1W2…Wn-1)

这种方法的缺点:

(1)参数空间过大,不容易实用化。

(2)数据稀疏严重。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值