生成词向量是自然语言处理中的基本过程,此前对此只知道使用但是一直不知道其原理。
最近补课,仔细学习了word2vec,上网查资料的时候发现很多博客资料上讲到的主要是理论,不好全面理解;而对于介绍应用的文章又偏重于某个工具的使用而不是训练的细节,所以特别参考了Tensorflow上的实现写下本篇文章,以防忘记。其中Tensorflow实现word2vec请点击这里
正文:
对于word2vec的原理这里不做过多解释,如果不熟悉可以看 [NLP] 秒懂词向量Word2vec的本质,下文中有些图片借用了文章中的图片,下面主要介绍训练过程。
词向量其实是将词映射到一个语义空间,得到的向量。而word2vec是借用神经网络的方式实现的,考虑文本的上下文关系,有两种模型CBOW 和Skip-gram,这两种模型在训练的过程中类似。

本文详细介绍了词向量训练的基本过程,包括预处理步骤、Skip-gram与CBOW两种模型的具体处理方式,以及参数矩阵的意义。
最低0.47元/天 解锁文章
2007

被折叠的 条评论
为什么被折叠?



