word2vec

常用、流行的词嵌入方法,就是Word2Vec。这是Tomas Mikolov在谷歌工作时发明的一类方法,也是由谷歌开源的一个工具包的名称。具体来说,Word2Vec中涉及到了两种算法,一个是CBOW一个是Skip-Gram。这也是因为深度学习流行起来之后,基于神经网络来完成的Word Embedding方法。
当前Deep Learning在NLP领域的三个阶段为
在这里插入图片描述
还有BERT的变形ALBERT和超越BERT, 19年最佳NLP预训练模型ELECTRA

关于word2vec有两种模型,1是根据上下文预测中心词,2是根据中心词预测上下文
在这里插入图片描述
这里推荐这个文章https://blog.youkuaiyun.com/itplus/article/details/37969519

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值