NLP笔记之Markov assumption 和 language model

探讨了贝叶斯模型在处理长句子时的局限性,并介绍了马尔科夫假设如何解决这一问题。通过一阶和二阶马尔科夫模型(即bigram和trigram),可以更有效地计算单词序列的概率。此外,还讨论了一元语法模型的不足以及N元模型在处理未登录词时的挑战。最后,提到了语言模型评估方法——困惑度,展示了不同模型的困惑度对比。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

贝叶斯模型无法表示长句子,多个单词的条件下,某个词出现的概率极小,再经过链式法则连乘之后,概率更小。

针对这个问题,有马尔科夫假设:

马尔科夫假设:某个单词出现的概率只与它前面的一个或几个单词有关。

一阶马尔科夫模型对应二元语法模型bigram

二阶马尔科夫模型对应三元语法模型trigram

 

一元语法模型无法表示语句中单词之间的关系。一元模型下,正常语句的概率和改句子打乱后的概率相同,显然不合理。常用二元语法模型,最高用到五元语法模型。

 

N元模型的问题,无法处理未登录词。

 

语言模型评估

理想情况下:

  1. 假设有两个语言模型A,B
  2. 选定一个特定的任务,比如拼写纠错
  3. 把两个模型应用到此任务中
  4. 最后比较准确率。

此方法太麻烦,需要搭建一套流程。

其他评估语言模型方法:困惑度 Perplexity

perplexity=2^{-\left ( x \right )},其中x:average log likelihood

困惑度越小,句子概率越大,句子确定度越高,越准确。

几种语法模型困惑度
 unigrambigramtrigram
perplexity962170109

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值