CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.html
Hierarchical Softmax的模型:https://www.cnblogs.com/pinard/p/7243513.html
Negative Sampling的模型:https://www.cnblogs.com/pinard/p/7249903.html
word2vec原理总结:
1.word2vec中有两种模型CBOW和Skip-Gram,CBOW是通过上下文词来预测中心词,Skip-Gram是通过中心词来预测上下文。
2.word2vec的两种优化方式:基于霍夫曼树的Hierarchical Softmax和负采样。
Hierarchical Softmax:
1.根据每个词的词频大小构建霍夫曼树,词频越高越靠近根结点。
2.初始化模型参数(每个节点参数),词向量
3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量
缺点:生僻词需要沿着树从上到下找很久 。
负采样:
1.随机选neg个中心词做负例,正例是正确的中心词,1-正例=负例。
2.初始化模型参数(每个节点参数),词向量
3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量