word2vec原理总结

CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.html

Hierarchical Softmax的模型:https://www.cnblogs.com/pinard/p/7243513.html

Negative Sampling的模型:https://www.cnblogs.com/pinard/p/7249903.html

 

word2vec原理总结:

1.word2vec中有两种模型CBOW和Skip-Gram,CBOW是通过上下文词来预测中心词,Skip-Gram是通过中心词来预测上下文。

2.word2vec的两种优化方式:基于霍夫曼树的Hierarchical Softmax和负采样。

Hierarchical Softmax

1.根据每个词的词频大小构建霍夫曼树,词频越高越靠近根结点。

2.初始化模型参数(每个节点参数),词向量 

3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量 

缺点:生僻词需要沿着树从上到下找很久 。

负采样

1.随机选neg个中心词做负例,正例是正确的中心词,1-正例=负例。

2.初始化模型参数(每个节点参数),词向量 

3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量

                                  

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值