Word2Vec
Word2Vec 用来计算单词的分布式向量表征。分布式表征的主要优点是相似的单词在向量空间中很接近,在很多自然语言处理应用中都被证明很有用,例如命名实体识别(NDR)、消歧、标注、机器翻译等。
skip-gram Model
skip-gram 的训练目标是学习单词在同一句子中有效预测其上下文的向量表征。从数学上来说,给定一系列训练单词 w1,w2,…,wTw1,w2,…,wTw1,w2,…,wT ,skip-gram model 的目标是最大化平均 log-likelihood
1T∑t=1T∑j=−kj=klogp(wt+j∣wt)\frac{1}{T} \sum_{t = 1}^{T}\sum_{j=-k}^{j=k} \log p(w_{t+j} | w_t)T1t=1∑Tj=−k∑j=klogp(wt+j∣wt)
其中k是训练窗口的大小。
在 skip-gram 模型中,每个单词 www 与两个向量 uwu_wuw 和 vwv_wvw 相关联,它们分别是 www 的作为单词和上下文的向量表征。给出单词 wjw_jwj,正确预测单词 wiw_iwi 的概率是由 softmax 模型决定,即
p(wi∣wj)=exp(uwi⊤vwj)∑l=1Vexp(ul⊤vwj)p(w_i | w_j ) = \frac{\exp(u_{w_i}^{\top}v_{w_j})}{\sum_{l=1}^{V} \exp(u_l^{\top}v_{w_j})}p(wi∣wj)=∑l=1Vexp(ul⊤vwj)exp(uwi⊤vwj)
其中 VVV 是词典大小。
使用 softmax 的 skip-gram 模型开销很大,因为计算 logp(wi∣wj)\log p(w_i | w_j)logp(wi∣wj) 的成本与 VVV 成比例, VVV 很容易就百万级。 为了加速 Word2Vec 的训练,我们使用了 hierarchical softmax,它将 logp(wi∣wj)\log p(w_i | w_j)logp(wi∣wj) 的计算复杂度降低到 O(log(V))O( log(V))O(log(V))。
ReferenceReferenceReference:
https://zhuanlan.zhihu.com/p/27234078