word2vec模型中训练出来的词向量在哪里

本文围绕word2vec展开,介绍其处理流程,如选取窗口、使用one - hot向量、构建三层模型等,通过训练使输出向量接近中心词的one - hot向量,训练好的词向量可由one - hot向量乘权重矩阵得到。还说明了其作用,可用于训练词向量、单词相似度匹配及求句子向量表示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关于word2vec,看了cs224n的视频,也看了不少博客和知乎,都不太明白这个东西有什么用。今天有针对性的搜了搜word2vec是怎么生成word embedding的,才明白。以CBOW为例,如下图所示。

简单的说,word2vec的处理流程是这样的

1、选取一个大小为w的窗口,也就是共有2w+1个单词,中间一个单词为中心词

2、每个单词在词典中都有自己的one-hot向量

3、模型有三个层:输入层->隐藏层->输出层

4、输入层输入的是一个one-hot向量,维度为V*1,V是one-hot向量的维度

5、输入层和隐藏层之间有个权重矩阵W1,W1的维度是N*V,N是设定的最终的词嵌入的维度

6、隐藏层得到一个维度为N*1的向量

7、隐藏层到输入层有个权重矩阵W2,维度为V*N

8、输出层得到一个V*1的向量,将其与中心词的one-hot向量做对比。我们的训练目标就是让这两个向量月接近越好

9、最后我们训练好的向量,只要用one-hot向量乘权重矩阵W1即可,也就是W1的每一列就是训练好的词向量。

我上面讲的只是其中一个词xi的训练过程,下图中是将窗口中的词一起训练了,这样效率比较高。

关于word2vec的作用:word2vec是用来训练词向量的,也就是用一个合适的向量来代表一个词,这是构建更高层神经网络模型的基础,也就是常说的特征工程。可以用word2vec模型进行单词的相似度匹配。如果要求句子的向量表示的话,可以对句子中每个词求加权平均。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值