word2vec的原理以及实现

word2vec是早期NLP的必要预处理过程,其用于生成词的向量表示(embeding)。

w_{embed} = f(word)=[0.1,0.2,...,0.21,0.32]

其将单词映射为固定长度的向量(embeding向量),而通过向量表示可以更好地表达不同词之间的相关性,因此会使得后续的分类、生成等NLP任务更好地学习训练。word2vec描述不同词之间的相关性,主要是指词同其上下文的其他词的共现性,主要有两种范式:

  • 跳元模型Skip-gram:其是假设通过中心词w_c生成其上下文w_{c\pm i},因此其目标是在中心词下,其上下文的条件概率P(w_{c-k},...,w_{c-1},w_{c+1},...,w_{c+k}|w_c)最大,即如下优化式子,C表示中心词的数量,k表示上下文窗口数。

\prod^C_c P(w_{c-k},...,w_{c-1},w_{c+1},...,w_{c+k}|w_c)=\prod^C_c \prod^k_{i=1} P(w_{c-i}|w_c)*P(w_{c+i}|w_c)

  • 连续词袋CBOW:其是假设通过上下文w_{c\pm i}生成中心词w_c,因此其目标在上下文下,其中心词生成条件概率P(w_c | w_{c-k},...,w_{c-1},w_{c+1},...,w_{c+k})最大,即如下优化式子:

\prod^C_c P(w_c|w_{c-k},...,w_{c-1},w_{c+1},...,w_{c+k})

 本文重点介绍跳元模型Skip-gram

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值