NLP 语言模型

本文介绍了概率链式法则在语言模型中的应用,包括不同阶数的Markov假设及其扩展,如Unigram与Bigram等,并探讨了语言模型评估指标Perplexity。此外,还讨论了如何通过Laplace平滑方法解决概率为零的问题。

Chain Rule

p(A,B,C,D) = p(A)*p(B|A)*p(C|AB)*p(D|ABC)

Markov Assumption

Unigram (一阶)

在这里插入图片描述

Bigram (二阶)

在这里插入图片描述
可扩展至N阶

语言模型的评价

  • 理想情况下
    1. 假设有两个语言模型A,B
    2. 选定特定的任务,比如拼写纠错
    3. 把两个模型A,B都应用在此任务中
    4. 比较准确率,判断A,B表现

模型评价:Perplexity

在这里插入图片描述
x:average log likelihood

Laplace Smoothing

为了避免单个概率为0,使整个句子概率为0
原MLE模型(Markov LM):
在这里插入图片描述

改进后的Add-one Smoothing LM

在这里插入图片描述
V: 词库的大小(去重)

Add-K Smoothing

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值