
NLP
Raymond_MY
想做大佬的菜鸡,Dale的fans
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
AAAI 2018| Improving Review Representations with User and Product Attention Sentiment Classification
最近有一个计划——40篇论文储备计划,是老班要求的。有的解读可能会放上来,有的不会。同时会把论文的地址放出来,希望能传播一些好文章吧~ 论文名称:Improving Review Representations with User Attention and Product Attention for Sentiment Classification 论文链接:https://arxiv.org/...原创 2019-04-04 21:52:52 · 1586 阅读 · 4 评论 -
Week1.3 Simple deep learning for text classification
Week1.3 Simple deep learning for text classificationNeural networks for words(characters)回顾--Bag of words wayNeural wayA better way: 1D convolutionsFinal Models输入层卷积层池化层全连接层Summary Neural networks for...原创 2018-10-21 14:22:13 · 566 阅读 · 0 评论 -
Week2.1 Language modeling: It's all about counting!
Language Modeling 本周将学习语言模型,NLP核心的部分。首先会接触一些语言模型,然后学习一些序列模型,例如part-of-speech tagging or named-entity。这些任务都非常有用的基础功能。 1.Count! N-gram language models 当你看到一个句子的开头,你将如何往下接呢?作为人类,我们有一些自己的直觉,或者说是语感。我们根据自身的...原创 2018-10-24 20:59:05 · 650 阅读 · 0 评论 -
哥伦比亚大学NLP笔记(个人笔记,更新到Week6)
原创 2019-01-28 19:45:46 · 474 阅读 · 1 评论 -
哥伦比亚大学NLP笔记(任务部分)
此帖是我的个人任务部分,如果要看我个人的完整笔记请移步https://blog.youkuaiyun.com/Raymond_MY/article/details/86681928 个人完整笔记之后会逐步更新的。 Week8 1-4 Week9 1-3 Week10 1-3 ...原创 2019-02-13 18:56:12 · 398 阅读 · 0 评论 -
NLP-tutorial代码笔记2
现在每次后面都会加上一个Q&A部分,就是每次有人看完,讲完后的问题,或者是一些不全面的方面,以问答的形式呈现出来。 现在开的坑系列是Github上一个即将3k+Star的NLP-tutorial项目,里面是一些NLP方面的Deep-learning代码,框架Tensor和Torch都有,而且实现行数基本都控制在了100行以内,比较适合去研究一下。这样之后搭框架的时候就会明白许多了。 项目地...原创 2019-07-09 22:02:39 · 581 阅读 · 0 评论 -
NLP-tutorial代码笔记1
现在开的坑系列是Github上一个即将3k+Star的NLP-tutorial项目,里面是一些NLP方面的Deep-learning代码,框架Tensor和Torch都有,而且实现行数基本都控制在了100行以内,比较适合去研究一下。这样之后搭框架的时候就会明白许多了。 项目地址:https://github.com/graykode/nlp-tutorial 第一部分是基本的Embeddeding...原创 2019-07-04 19:24:44 · 1150 阅读 · 0 评论 -
global-to-local memory pointer networks for task-oriented dialogue
global-to-local memory pointer networks for task-oriented dialogue 论文解决的问题:在任务型对话系统中有效地利用外部知识库信息 模型:使用GLMP全局到本地记忆指针网络解决上述问题 Introduction 目前对话系统面临的一个问题是,端到端的学习很难将外部的知识库和生成的系统回复结合起来。主要原因是一个大型的动态知识库很难去编码...原创 2019-07-18 21:04:58 · 930 阅读 · 0 评论