word2vec 的本质

本文深入浅出地解析了word2vec的本质,将其视为一个词汇到向量的映射过程,分为两个步骤:首先,通过统计词汇在语料库中的共现概率分布得到稀疏向量;然后,利用压缩和解压缩网络模型进行向量降维,最终得到固定维度的词向量。这一过程揭示了word2vec背后的基本数学思想。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

午夜昏睡的时候,忽然想到 word2vec 的本质,其实很简单。理解了其本质,可以组合出各种具体的方案出来。

假设词汇库里有 m 个词汇,word2vec 把 mmm 个词汇映射到 nnn 维空间。说白了,这就是一个映射。如下所示,其中 www 是词汇, vvv 是向量:
w→Fv(1)\tag1 w \stackrel{F} \to v wFv(1)

要实现这个映射,可以分成两步:

第一步,把 www 映射到一个稀疏向量 uuu

可选方案很多,最简单的做法是,统计语料库中的句子中, www 前后某个范围内出现的其他单词的概率分布,这个频率分布可以用一个 mmm 维向量 uuu 表示 。

w→Ru(2)\tag2 w \stackrel{R} \to u wRu(2)

其实这一步已经完成向量化的任务了。一般而言,这个步骤中的 uuu 是一个稀疏向量,因此我们需要给它降一下维。

第二步,把 uuu 降维。

这个用压缩+解压缩网络模型,用无监督训练方法,很容易建立一个数据压缩模型,进一步把 mmm 维的概率分布压缩到 nnn 维。

u→Sv→Tu′(3)\tag3 u \stackrel{S} \to v \stackrel{T} \to u' uSvTu(3)

其中,SSS 是压缩网络,TTT 是解压缩网络。最后,得到 word2vec 映射:
F=R⋅S F = R\cdot S F=RS

即:

w→Ru→Sv w\stackrel{R}\to u \stackrel{S}\to v wRuSv

虽然各种网络模型实现形式各有特色,但背后的数学思想,基本离不开本文所述。■\blacksquare


原创不易,如果对您有帮助,请关注、点赞,谢谢支持!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

许野平

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值