NLP自然语言处理:神经网络语言模型(NNLM)

本文探讨了传统语言模型如n-gram存在的稀疏性和泛化能力差的问题,然后介绍了神经网络语言模型,特别是前馈神经网络模型(FFLM)和循环神经网络模型(RNNLM)。FFLM通过词向量缓解稀疏性,但无法处理长上下文信息;RNNLM利用上下文序列关系增强预测能力,但受限于梯度消失问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

一、传统语言模型

1.1 稀疏性

1.2 泛化能力差

二、神经网络语言模型

2.1 前馈神经网络模型(FFLM)

2.2 循环神经网络模型(RNNLM)

2.2.1 循环神经网络模型示例

2.2.2 RNN语言模型训练过程

2.2.3 RNN语言模型反向传播

2.2.4 语言模型评估



 

语言模型的构建目的是为了对语言中的各要素的分布进行估计,具有较长的研究历史和广泛的应用。传统的离散计数类语言模型,比如bi-gram,n-gram模型等在很多应用领域的结果得到了广泛认可。

其基本假设通常是单词的分布服从n阶马尔可夫链。通过对连续n个单词出现频率进行计数并平滑来估计单词出现的概率。

但是由于是离散模型,因此有稀疏性和泛化能力低的缺点。

随着深度学习被广泛接纳,近年来神经网络语言模型(NLM)收到了广泛关注。相比传统的语言模型,神经网络语言模型属于连续模型,主要着力解决离散模型的两个主要痛点:

  • 通过将离散的n-gram单词组投影到致密的空间词嵌入技术,
  • 采用循环神经网络来解决传统语言模型稀疏性和泛化能力低的问题。

 

一、传统语言模型

传统的离散模型主要是统计语言模型,比如bigram或者n-gram语言模型,是对n个连续的单词出现概率进行建模。

传统的语言模型基于马尔可夫假设,假设我们对于一个单词在某个位置出现概率的估计可以通过计算该单词与前面m个单词同时出现频率相对于前面的m个单词同时出现的频率的比获得。这是朴素贝叶斯的思路。

  1. 如果m为0,我们的估计只基于该单词在全部文本中相对于其他所有单词的频率,这个模型就是unigram模型;
  2. 如果m为1,那么这个模型就是常见的bigram模型,
  3. 如果m为2,那么这个模型就是trigram模型,其计算公式如下:

如果把文本视为一个状态机,每一个出现的单词即是状态,上述公式也可以视为是一个m阶的马尔可夫链模型。

传统n-gram模型简单实用,但是却有两大致命缺点:稀疏性和泛化能力差。

 

1.1 稀疏性

因为n-gram模型只能对文本中出现的单词或者单词组进行建模,当新的文本中出现意义相近但是没有在训练文本中出现的单词或者单词组的时候,传统离散模型无法正确计算这些训练样本中未出现的单词的应有概率,他们都会被赋予0概率预测值。这是非常不符合语言规律的事情。

举个例来讲,在一组汽车新闻中,“SUV”和“吉普”是同义词,可以交替出现,但是假设整个训练集中没有出现过“吉普”这个单词,那么在传统模型中对于“吉普”这个词的出现概率会输出接近于0的结果。

但是上述相似例子在实际生活中却是非常比比皆是,由于计算资源与数据的限制,我们经常会发现模型在使用中遇见在整个训练集中从未出现的单词组的情况。

为了解决这种矛盾,传统方法是引入一些平滑【 J .G

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值