CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.html
Hierarchical Softmax的模型:https://www.cnblogs.com/pinard/p/7243513.html
Negative Sampling的模型:https://www.cnblogs.com/pinard/p/7249903.html
word2vec原理总结:
1.word2vec中有两种模型CBOW和Skip-Gram,CBOW是通过上下文词来预测中心词,Skip-Gram是通过中心词来预测上下文。
2.word2vec的两种优化方式:基于霍夫曼树的Hierarchical Softmax和负采样。
Hierarchical Softmax:
1.根据每个词的词频大小构建霍夫曼树,词频越高越靠近根结点。
2.初始化模型参数(每个节点参数),词向量
3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量
缺点:生僻词需要沿着树从上到下找很久 。
负采样:
1.随机选neg个中心词做负例,正例是正确的中心词,1-正例=负例。
2.初始化模型参数(每个节点参数),词向量
3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量
博客主要总结了word2vec原理,包含CBOW和Skip - Gram两种模型,前者通过上下文词预测中心词,后者通过中心词预测上下文。还介绍了两种优化方式,即基于霍夫曼树的Hierarchical Softmax和负采样,阐述了它们的实现步骤及Hierarchical Softmax的缺点。
734

被折叠的 条评论
为什么被折叠?



