word2vec浅析

本文是参考神经网络语言模型、word2vec相关论文和网上博客等资料整理的学习笔记,仅记录

自己的学习历程,欢迎拍砖。

     word2vec是2013年google提出的一种神经网络的语言模型,通过神经网络来学习词语的联合概率分布,

同时可以得到词向量,有了词向量可以做很多NLP相关的事情。其实,早在2000年初就有学者在用神经网络

来学习语言模型了,通过多年的改进、演变,得到我们现在知道的word2vec,word2vec其实并没有用多层的

神经网络,近些年来DL方法也在NLP领域有越来越多的研究进展。








参考文献

 https://code.google.com/p/word2vec/

lMikolov,Tomas, et al. "Efficient estimation of word representations in vectorspace." arXiv preprint arXiv:1301.3781 (2013).    

 Mikolov,Tomas, et al. "Distributed representations of words and phrases and theircompositionality." Advances in Neural Information ProcessingSystems. 2013. 

lBengio,Yoshua, et al. "Neural probabilistic language models." Innovationsin Machine Learning. Springer Berlin Heidelberg, 2006. 137-186.  

lhttp://blog.youkuaiyun.com/itplus/article/category/1686185 

http://licstar.net/archives/328

http://blog.youkuaiyun.com/mytestmy/article/category/1465487  



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值