理解word2vec的训练过程

本文详细介绍了词向量训练的基本过程,包括预处理步骤、Skip-gram与CBOW两种模型的具体处理方式,以及参数矩阵的意义。
AI助手已提取文章相关产品:

生成词向量是自然语言处理中的基本过程,此前对此只知道使用但是一直不知道其原理。

最近补课,仔细学习了word2vec,上网查资料的时候发现很多博客资料上讲到的主要是理论,不好全面理解;而对于介绍应用的文章又偏重于某个工具的使用而不是训练的细节,所以特别参考了Tensorflow上的实现写下本篇文章,以防忘记。其中Tensorflow实现word2vec请点击这里


正文:

对于word2vec的原理这里不做过多解释,如果不熟悉可以看 [NLP] 秒懂词向量Word2vec的本质,下文中有些图片借用了文章中的图片,下面主要介绍训练过程。


词向量其实是将词映射到一个语义空间,得到的向量。而word2vec是借用神经网络的方式实现的,考虑文本的上下文关系,有两种模型CBOW 和Skip-gram,这两种模型在训练的过程中类似。

您可能感兴趣的与本文相关内容

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值