
NLP
AcceptedLin
ACC
展开
-
深度NLP
深度NLP1、通用模型结构文本分类的模型很多,基本上都遵循以下的架构:基本思路就是,词(或者字)经过embedding层之后,利用CNN/RNN等结构,提取局部信息、全局信息或上下文信息,利用分类器进行分类,分类器的是由两层全连接层组成的。在开始介绍每个模型之前,这里先下...转载 2019-02-13 11:00:06 · 316 阅读 · 0 评论 -
Word2Vec之Skip-Gram与CBOW模型
Word2Vec之Skip-Gram与CBOW模型word2vec是一个开源的nlp工具,它可以将所有的词向量化。至于什么是词向量,最开始是我们熟悉的one-hot编码,但是这种表示方法孤立了每个词,不能表示词之间的关系,当然也有维度过大的原因。后面发展出一种方法,术语是词嵌入。[1.词嵌入]词嵌入(Word Embedding)是NL...转载 2019-02-14 10:38:29 · 381 阅读 · 0 评论 -
Word Embedding的发展和原理
Word Embedding的发展和原理文本处理是NLP领域的一个重要分支,其细分领域又包括文本聚类、分类、机器翻译、人机交互等等,而这一切的前提都是将文本表示成计算机可以理解和易于处理的数据。经过成千上万年的进化,人类的语言本身变得十分抽象和复杂,要搞懂一段文字,那么要理解词本身的意义、语义关系、上下文关系(苹果好吃/苹果公司),如何将文字用计算机...转载 2019-02-25 12:21:00 · 3160 阅读 · 1 评论 -
知识图谱技术学习笔记
知识图谱技术学习笔记从一开始的Google搜索,到现在的聊天机器人、大数据风控、证券投资、智能医疗、自适应教育、推荐系统,无一不跟知识图谱相关。它在技术领域的热度也在逐年上升。 本文以通俗易懂的方式来讲解知识图谱相关的知识、尤其对从零开始搭建知识图谱过程当中需要经历的步骤以及每个阶段需要考虑的问题都给予了比较详细的解释。 ...转载 2019-02-25 16:27:03 · 2101 阅读 · 0 评论 -
Transformer模型进阶-GPT模型和Bert模型
Transformer模型进阶-GPT模型和Bert模型OpenAI GPT模型原理与架构原文[Improving Language Understanding by Generative Pre-Training]OpenAI Transformer是一类可迁移到多种NLP任务的,基于Transformer的语言模型,其利用Tran...转载 2019-03-30 14:55:57 · 14159 阅读 · 0 评论 -
深度学习:transformer模型
深度学习:transformer模型Google于2017年6月发布在arxiv上的一篇文章《Attention is all you need》,提出解决sequence to sequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的encoder-decoder模型必须结合c...转载 2019-03-30 15:23:21 · 833 阅读 · 0 评论 -
NLP之文本分类
NLP之文本分类主要步骤:1、读文件2、jieba分词3、TFIDF/word2vec统计词频向量4、去停用词(有词表)5、模型预测分析具体过程有待补充,,,,,,,,,,参考:https://blog.youkuaiyun.com/qq_28626909/ar...原创 2019-08-25 15:13:59 · 214 阅读 · 0 评论