
Natural language processing
文章平均质量分 94
记录自然语言处理的模型与算法
一碗竹叶青
985硕士研究生,AI算法工程师,任职于腾讯,百度等公司,希望充当AI布道者,用最通俗易懂的语言普及AI的原理和内核,让更多人认识AI,学习AI,使用AI。希望交流请VX:tianming608
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于深度学习的处理文本数据的四步法(Embed,encode,attend,predict:)
转载来自:https://explosion.ai/blog/deep-learning-formula-nlp在过去六个月,一种强大的新型神经网络工具出现应用于自然语言处理。新型的方法可以总结为四步骤:嵌入(embed),编码(encode),加入(attend),预测(predict)。本篇文章解释了新方法的各个部分。并在最近的两个系统中展示如何使用。当人们思考机器学习的改善时,他们通常会...原创 2018-11-11 20:51:31 · 1055 阅读 · 0 评论 -
[Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec词向量模型
[Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec词向量模型 阅读目录1. 词向量2.Distributed representation词向量表示3.词向量模型4.word2vec算法思想5.doc2vec算法思想6.参考内容 深度学习掀开了机器学习的新篇章,目前深度学习应用于图像和语音已经产生了突...转载 2018-12-20 20:14:27 · 491 阅读 · 0 评论 -
《A Neural Probabilistic Language Model》
其实我阅读完原文后,本来想翻译出来,但是网上有很多这样的译文,我就没有翻译,直接转载了。转载地址:https://blog.youkuaiyun.com/u014568072/article/details/78557837?locationNum=4&fps=1Yoshua Bengio 2003Abstract统计语言模型建模(Statistical Language Modeling)目...转载 2018-12-20 21:01:13 · 1658 阅读 · 0 评论 -
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
转载自:https://zhuanlan.zhihu.com/p/49271699张俊林 Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得。那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角度看一般,创新不算大。但是架不住效果太好了,基本刷新了很多NLP的任务的最好性能,有些任务还被刷爆了,这个...转载 2019-03-16 15:55:05 · 429 阅读 · 0 评论