
NLP
scanf_yourname
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
哥伦比亚大学NLP 第一章
哥伦比亚大学NLP 第一章原创 2019-02-03 14:45:13 · 341 阅读 · 0 评论 -
哥伦比亚NLP 第二章
哥伦比亚NLP 第二章 目录 标记问题(Tagging(Tagging(Tagging problem)problem)problem) 生成模型(Generative(Generative(Generative model)model)model) 噪声通道模型(Noisy−channel(Noisy-channel(Noisy−channel model)model)model) 隐藏马尔...原创 2019-02-04 19:55:50 · 410 阅读 · 0 评论 -
哥伦比亚大学 NLP 第三章(第一部分)
哥伦比亚大学 NLP 第三章 摘要 本章主要讲述了一个叫做ParsingParsingParsing的问题,ParsingParsingParsing的中文翻译叫做解析,是自然语言处理中非常重要的一个问题之一。 简介 什么是解析ParsingParsingParsing ParsingParsingParsing的目的就是为了分析句法结构,就是确定一个句子中每一个单词充当什么成分,比如:主语...原创 2019-02-10 01:06:45 · 421 阅读 · 0 评论 -
哥伦比亚大学 NLP 第三章(第二部分)
哥伦比亚大学 NLP 第三章(第二部分) 目录 概率上下文无关 CKYCKYCKY 算法 本部分关于上下文无关相关符号的约定均基于第一部分,本部分将继续沿用不再定义 第三章第一部分传送门:https://blog.youkuaiyun.com/scanf_yourname/article/details/86777756 概率上下文无关文法(PCFGs)(PCFGs)(PCFGs) 为什么引入概率上下文无...原创 2019-02-10 23:39:07 · 300 阅读 · 0 评论 -
Word2Vec 与《Distributed Representations of Words and Phrases and their Compositionality》学习笔记
什么是Word2Vec 目录 词嵌入(word embedding) 词嵌入的特点 嵌入矩阵 Skip−gramSkip-gramSkip−gram模型 分层SoftmaxSoftmaxSoftmax (HierarchicalSoftmax)(Hierarchical Softmax)(HierarchicalSoftmax) 负采样 词嵌入(word embedding) ...原创 2019-07-04 18:30:47 · 3259 阅读 · 0 评论 -
Seq2Seq &论文:Learning Phrase Representations......Machine Translation学习笔记
论文:LearningLearningLearning PhrasePhrasePhrase RepresentationsRepresentationsRepresentations usingusingusing RNNRNNRNN Encoder−DecoderEncoder-DecoderEncoder−Decoder forforfor StatisticalStatisticalSta...原创 2019-07-27 21:34:43 · 366 阅读 · 0 评论