高级特征工程与自然语言处理算法:深入解析 Word2Vec
在自然语言处理(NLP)领域,Word2Vec 是一种强大的工具,用于将单词转换为向量表示,从而让计算机能够更好地理解和处理自然语言。本文将深入探讨 Word2Vec 的工作原理、主要算法、相关数学知识以及一些实用的优化技术。
1. Word2Vec 基础计算
在 Word2Vec 中,首先需要计算隐藏层的输出。隐藏层输出 $H_t$ 通过公式 $H_t = X_tW_I$ 计算得出,例如 $H_t = [-0.490796 -0.229903 0.065460]$。这里,由于使用了独热编码表示,隐藏神经元的输出模仿了 $W_I$ 矩阵第二行的权重。
接下来,需要计算隐藏层和输出层的结果,公式为 $H_tW_O = [0.100934 -0.309331 -0.122361 -0.151399 0.143463 -0.051262 -0.079686 0.112928]$。我们的最终目标是得到输出层中单词的概率,即 $Probability (word_k|word_{context})$ ($k = 1…V$)。但此时输出是一组向量,需要将其转换为概率。在 Word2Vec 中,使用 softmax 函数将输出层神经元的激活值转换为概率。
softmax 函数的公式用于计算第 $k$ 个神经元的输出,其中 $activation(n)$ 表示第 $n$ 个输出层神经元的激活值。通过该公式,可以计算语料库中八个单词的概率,例如 $[ 0.143073 0.094925 0.114441 0.111166 0.149289 0.122874 0.119431 0.144800 ]$。以下是 Python
超级会员免费看
订阅专栏 解锁全文
775

被折叠的 条评论
为什么被折叠?



