word2vec 是 Google 于 2013 年推出的一个用于获取词向量的开源工具包。我们在项目中多次使用到它,但囿于时间关系,一直没仔细探究其背后的原理。
网络上 《word2vec 中的数学原理详解》 有一系列的博文,对这个问题已经做了很好的阐述。作者十分用心,从最基础的预备知识、背景知识讲起,这样读者就不用到处找相关资料了。
这里,我就把其博文链接直接搬运过来:
(四)基于 Hierarchical Softmax 的模型
这个系列博文里的一些数学推导来自下面这篇文章,
word2vec Parameter Learning Explained
这篇文章的作者还提供了一个非常直观的可视化工具,可以直观地看到每一步的训练到底发生了什么
wevi: word embedding visual inspector
原版的 word2vec 项目链接在此
本文详细介绍了word2vec的数学原理,包括预备知识、背景知识,并深入探讨了基于HierarchicalSoftmax和NegativeSampling的模型。同时提供了直观的可视化工具帮助理解训练过程。

1060

被折叠的 条评论
为什么被折叠?



