NLP
文章平均质量分 93
beyourselfwb
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
SParC: Cross-Domain Semantic Parsing in Context 论文解读
前言:SParC是一个基于 Spider 数据集扩展的有上下文依赖的对话是 Text-to-SQL 数据集。不同于 Spider 一句话 对应一个最终 SQL,SParC 通常需要通过多轮对话来实现用户的查询意图,并且在交互过程中,用户会省略很多之前提到的信息,或者新增、修改之前提到过一些内容,使得该任务更具挑战性。基本信息 标题:SParC: Cross-Domain Semantic Parsing in Context 作者:Tao Yu等 单位:耶鲁大学...原创 2021-05-23 09:47:08 · 738 阅读 · 0 评论 -
codalab环境搭建及新手教程
codalab环境搭建及新手教程文章目录codalab环境搭建及新手教程codalab简介本地环境配置命令用法样例实战注意事项进阶教程参考链接总结更新时间:2021年5月13日前言:由于科研需要codalab平台,便开始学习如何使用它,中文相关介绍非常之少,于是便把官方英文文档统统刷了 一遍,踩了很多坑,终于可以熟练使用它了。把我的采坑经历记录下来,填补这片空白,希望能帮大家节省宝贵的时间,可以更快地上手。codalab简介CodaLab工作表是一个开源平台,它提供了一个生态系统,可以以更高效原创 2021-05-15 16:45:23 · 10234 阅读 · 4 评论 -
Structure-Grounded Pretraining for Text-to-SQL 论文解读
STRUG:Structure-Grounded Pretraining for Text-to-SQL该论文已被 NAACL 2021 所接收。pdf:https://arxiv.org/abs/2010.12773总结:本文通过使用现有的数据集 ToTTo 来构造预训练任务,包含3个训练目标,分别是 column grouding(预测列名是否在utterance中被提到,包括直接提到和提到相关的value)、value grounding(预测一个utterance的token是否是value)原创 2021-05-02 23:09:57 · 518 阅读 · 0 评论 -
GAP:Learning Contextual Representations for Semantic Parsing with Generation-Augmented Pre-Training
Learning Contextual Representations for Semantic Parsing with Generation-Augmented Pre-Training论文解读pdf:https://arxiv.org/abs/2012.10309该论文已被 AAAI 2021 所接收。生成式增强预训练。GAP (Generation-Augmented Pre-Training)摘要现有的通用语言模型在Text-to-sql任务上存在3个问题: 1、..原创 2021-04-29 22:53:01 · 548 阅读 · 0 评论 -
知识驱动的主动式开放域对话系统 by 车万翔 2020/4/11
目录会议介绍会议海报相关内容截图收获会议介绍本次NLP技术前沿进展报告大会由CCF举办,在腾讯会议上线上进行。我下面分享的是车万翔老师的报告内容,主要介绍了在知识驱动的主动内容规划三个方面的工作:如何在闲聊中规划多轮对话内容? KnowHRL:基于话题的多轮对话内容规划;话题来自知识图谱,作为可解释的离散状态 如何解决KnowHRL依赖人工标注语料难以...原创 2020-04-12 09:08:30 · 1061 阅读 · 2 评论 -
ParlAI 学习记录(一):安装及demo上手
目录ParlAI 学习记录(一)1、parl.ai简介2、快速上手2.1 安装2.2 跑跑demo熟悉一下ParlAI 学习记录(一)1、parl.ai简介网站地址: https://parl.ai/一个统一的分享、训练和评估对话模型的平台,支持各种对话任务。特色:包含所有主流的对话数据集,从开放域闲聊到可视化问答应有尽有;一系列现成的模型供你参考使用,从抽取式基线模型到Trans...原创 2020-04-11 18:27:19 · 4551 阅读 · 0 评论 -
Transformer实战
引言:Transformer自从2017年提出到现在,已经被广泛应用于NLP各项任务中,尤其是NMT,取得的效果最明显。前面讲了Transformer模型,下面就来介绍一下Transformer实战。已经有很多大神写了Transformer的各种实现,本文参考的是哈佛大学2018年4月的一个实现版本。与以往纯翻译的博客不同,本文侧重整体结构+细节分析,并附上了很多模型局部图以及类的依赖关系图,解...原创 2019-07-26 14:35:41 · 9896 阅读 · 10 评论 -
NLP数据预处理神器nltk
神器nltk安装很简单:pip install nltk第一次使用nltk的话,会报错,还需要下载一些资源包,按照提示下载即可:import nltknltk.download('punkt')可以简单测试一下:import nltktext = 'This is a test. I want to learn nltk.'sens = nltk.sent_tokenize(...原创 2019-07-01 09:54:11 · 1001 阅读 · 0 评论 -
NMT实战理解Attention、Seq2Seq
最近在看NMT相关的研究,论文很多,每隔几个月就会有新的论文发出来,提出新的模型或者改进,作为小白,我觉得还是先搞懂一些基础理念,试着去实现最简单的模型,练练手。本次以Pytorch的Translation with sequence to sequence network and attention为例,介绍一下Seq2Seq和Attention机制,顺便了解一下最简单的NMT模型。好了话不多...原创 2019-07-02 17:43:07 · 2323 阅读 · 0 评论
分享