神经网络语言模型NNLM解决的一大问题:
维度灾难:由于向量维度过大,导致模型计算量爆炸。
NNLM经典模型图如下所示:

其中,C(i)C(i)C(i)表示第i个词的词向量,ggg代表可以使用的神经网络,在NNLM中,假设当前词是与前n-1个词有关系的。
图一代表的公式其实是下式:
y=b+Wx+Utanh(d+Hx) y=b+Wx+Utanh(d+Hx)y=b+Wx+Utanh(d+Hx)
其中x被使用了两次,分别对应图一中上半部分的实线和虚线。
NNLM(神经网络语言模型)通过巧妙的模型设计解决了传统模型中因词向量维度过高导致的计算量过大问题。模型假设当前词与前n-1个词有关,其结构包括词向量表示、神经网络处理和结合上下文信息的输出层。该模型有助于高效处理大规模文本数据。
神经网络语言模型NNLM解决的一大问题:
维度灾难:由于向量维度过大,导致模型计算量爆炸。
NNLM经典模型图如下所示:

其中,C(i)C(i)C(i)表示第i个词的词向量,ggg代表可以使用的神经网络,在NNLM中,假设当前词是与前n-1个词有关系的。
图一代表的公式其实是下式:
y=b+Wx+Utanh(d+Hx) y=b+Wx+Utanh(d+Hx)y=b+Wx+Utanh(d+Hx)
其中x被使用了两次,分别对应图一中上半部分的实线和虚线。

被折叠的 条评论
为什么被折叠?