
论文推送
文章平均质量分 89
AINLPer
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文速递 && EMNLP2022 | 接受论文抢先看!!!(内含下载列表)
关于EMNLP2022,最近有作者开始收到论文接受的通知。因此本文为大家整理了一波EMNLP2022接收论文供大家下载阅读。其中共计26篇,这里整理了24篇。原创 2022-10-10 22:18:50 · 1761 阅读 · 0 评论 -
【历年IJCAI论文下载(含IJCAI2022)】图神经网络(GNN)(多行为推荐、多模态食谱表示学习、同质图表示学习)
历年IJCAI论文下载,IJCAI2022论文下载,IJCAI2021论文下载,IJCAI2020论文下载,IJCAI2019论文下载,IJCAI2018论文下载,IJCAI2017论文下载,IJCAI2016论文下载原创 2022-09-25 15:51:38 · 914 阅读 · 0 评论 -
【EMNLP2021&&含源码】「自然语言处理(NLP)」跨度提取QA形式算法改进
来源: AINLPer 微信公众号(每日论文干货分享!!)编辑: ShuYini校稿: ShuYini时间: 2021-11-22那么今天继续给大家分享一篇EMNLP顶会上的文章:Enhanced Language Representation with Label Knowledge for Span Extraction。【论文及代码链接在后面】引言在自然语言信息抽取中,有这么一种描述叫:Span Extraction,翻译过来叫做跨度提取。这里的跨度提取指的就是在纯文本中提取文本中的.原创 2021-11-23 00:06:25 · 2074 阅读 · 3 评论 -
【EMNLP2021&&含源码】「自然语言处理(NLP)」当“Attention“遇到”Fast Recurrence“,强大的语言训练模型
来源: AINLPer 微信公众号(每日论文干货分享!!)编辑: ShuYini校稿: ShuYini时间: 2021-11-21Paper:When Attention Meets Fast Recurrence:Training Language Models with Reduced Compute.我们知道由于计算时间和成本的增加,大型语言模型变得越来越难以训练。基于这个问题,今天给大家分享EMNLP2021顶会上的一篇文章,本篇论文的主要工作是建立在 SRU(一种高度并行化的 RN.原创 2021-11-22 23:49:13 · 686 阅读 · 0 评论 -
「自然语言处理(NLP)」Google AI 推出“GoEmotions”:用于细粒度情感分类的 NLP 数据集
来源: AINLPer 微信公众号(每日论文干货分享!!)编辑: ShuYini校稿: ShuYini时间: 2021-11-21情绪能够刺激我们采取行动并影响在生活中做出的重大和次要决定,极大地影响了人们社交和建立联系的方式。因此理解语言中包含的情绪信息在应用中具有重大的意义。 谷歌最近的一项新的研究介绍了:一个人工标注的细粒度情绪数据集,其中包含 58k 条来自主要英语子版块的 Reddit 评论,并确定了28个情绪类别。它有 12 个正面、11 个负面、4 个模棱两可的情感类别和 1 个“.原创 2021-11-22 23:45:02 · 1130 阅读 · 0 评论 -
【Apple AI && 含源码】「自然语言处理(NLP)」“先计划后生成”(PlanGen) 框架
来源: AINLPer 微信公众号(每日论文干货分享!!.)编辑: ShuYini校稿: ShuYini时间: 2021-11-19题目:Plan-then-Generate: Controlled Data-to-Text Generation via Planning论文:https://arxiv.org/pdf/2108.13740.pdfGithub:https://github.com/yxuansu/plangen数据集:https://github.com/google-r.原创 2021-11-22 23:41:09 · 419 阅读 · 0 评论 -
【EMNLP2021&&含源码】「自然语言处理(NLP)」端到端(seq2seq)关系提取--罗马大学
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2021-11-16论文信息:REBEL: RelationExtraction By End-to-end Language generation源码地址:https://github.com/Babelscape/rebel今天给大家分享一篇关于关系抽取的文章,关系抽取是自然语言处理中信息抽取(EI)的重要组成部分。如果您对信息抽取、关系抽取、实体抽取、事件抽取还不是很了解可以阅读以下几篇.原创 2021-11-22 23:24:38 · 925 阅读 · 1 评论 -
(含源码)「自然语言处理(NLP)」RoBERTa&&XLNet&&语言模型&&问答系统训练
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-07-27引言: 本次内容主要包括:稳健优化Bert模型(RoBERTa)、自回归预训练模型(XLNet)、无监督多任务学习语言模型、生成预训练语言理解、深层上下文单词表示、键值记忆网络、大规模问答系统训练等 。。本次论文获取方式:1、关注AINLPer 微信公众号(每日更新…)回复:BT0022、知乎主页–ShuYini1、TILE: RoBERTa: A Robustly O.原创 2020-07-29 22:49:13 · 944 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」社区问答评估&&Bert模型优化
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-03-21引言: 本文分享的内容主要包括社区问答质量评估(基于Bert模型微调)、Bert语言表示模型的优化、多Talkiing注意力头、ALBERT模型(减少参数提升训练速度)、序列到序列的去噪自编码器BART模型、迁移技术前景探索、通用语言表示模型DistilBERT等。本次论文打包获取方式:1、关注AINLPer 微信公众号(每日更新…)回复:BT0012、知乎主页–ShuY.原创 2020-07-29 22:47:08 · 887 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(六)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-07-24引言:本次整理的论文还是主要偏向于机器阅读理解的问答(MRC-QA),其中主要涉及到双向注意流(BIDAF)网络、Gated Attention模型、AS Reader模型、问答句子识别、双向注意机制和层次表示学习的关系图神经网络、类人问答系统建立等。本次论文获取方式:1、关注AINLPer 微信公众号(每日更新…)回复:QA0062、知乎主页–ShuYini1、TI.原创 2020-07-29 22:43:49 · 473 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(五)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-07-21引言: 本次整理的论文还是主要偏向于Open-Domain QA,其中主要涉及到增强Ranker-Reader、SearchQA的大型数据集、PullNet集成框架、改进的加权抽样训练策略、开放QA中的Bert模型优化等。本次论文获取方式:1、关注AINLPer 微信公众号(每日更新…)回复:QA0052、知乎主页–ShuYini1、TILE: Evidence Agg.原创 2020-07-29 22:40:20 · 637 阅读 · 0 评论 -
(含源码)问答对生成(QAG)| 你竟还在手工梳理问答对!?
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-06-11引言 AI时代,不同的行业都有自己的智能客服,比如银行智能客服、导购智能客服、后期服务支持智能客服等。这些客服机器人基本都是利用高质量、大量业务场景问答对(QA)作为语料进行训练得到的,但是梳理这些问答对将会耗费大量人力成本。能否做到QA问答对的自动生成呢?答案是肯定的。Paper Information TILE: Generating Diverse an.原创 2020-06-24 16:10:07 · 2355 阅读 · 0 评论 -
ICML2020全部接受论文列表
因为疫情的原因,原定7月在奥地利维也纳举行的ICML 2020决定改为线上会议。第三十七届ICML 2020年会将于2020年7月12日至18日采用虚拟会议的方式召开。具体会议的细则可见官网安排说明: https://icml.cc/Conferences/2020/VirtualICMLSchedulePlan ICML 2020(国际机器学习大会 International Conference on Machine Learning)今年共计接受4990篇论文,接受1088 篇原创 2020-06-24 16:06:31 · 6125 阅读 · 0 评论 -
Attention的可解释性及其在网络结构中的应用
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-06-18引言 本文首先讨论了使用注意力的关键神经网络体系结构;接着讨论了在神经网络中加入注意力是如何带来显著的性能提高的,通过Attention的可解释性,对神经网络内部工作的有了更深入的了解;最后讨论了三个应用领域的注意建模的应用。参考论文获取:关注 AINLPer 回复:AMZSAttention在神经网络结构中的应用 面将介绍三种与注意力机制结合使用的神经网.原创 2020-06-24 13:46:38 · 1529 阅读 · 0 评论 -
这是一篇关于Attention的综述
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-06-16引言 注意力机制是神经网络中的一个重要概念,当前研究人员已经在各种应用领域中对其进行了研究。本文将全面介绍注意力机制模型的结构以及当前的发展状况;并依据逻辑范畴对注意力机制模型进行了分类。Attention综述文章获取:关注 AINLPer 回复:AMZSAttention Model(AM)介绍 注意力模型/Attention Model(AM)首先是在.原创 2020-06-24 13:44:08 · 700 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(四)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-03-21引言: 本次整理的论文还是主要偏向于Open-Domain QA,其中主要涉及到结合文本与知识库的GRAFT-Net模型、基本词汇的检索-阅读者模型、改进的DS-QA模型、结合了教育语义的动态概念网络模型、**知识增强的图神经网络(KGNN)**等。本次论文获取方式...原创 2020-03-21 17:45:18 · 776 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(三)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-03-19引言: 本次整理的论文同样主要偏向于Open-Domain QA,其中主要涉及到阿拉伯语的问答(这个可以尝试转变成中文的,因为这个是有源码的)、开放问答系统搭建、开放问答效率提升、基于web表的开放问答方法、开放问答模型泛化能力研究等。本次论文获取方式:1、百度云...原创 2020-03-21 17:44:03 · 592 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(二)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-03-18引言: 本次整理的论文主要偏向于Open-Domain QA,其中主要涉及到混合注意力方法、预训练模型分析、BERT预训练模型优化、QA数据集、问答跳转等。本次论文获取方式:1、百度云链接,提取码:a2cz2、关注AINLPer 微信公众号(每日更新…)回复:Q...原创 2020-03-21 17:38:18 · 833 阅读 · 1 评论 -
重磅!「自然语言处理(NLP)」一文带你了解TF-IDF
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-03-12引言 本文主要整理TF-IDF的基本内容,能够让你很快了解TF-IDF到底是什么,为什么会存在,以及其优缺点?1、向量化特征缺失 在将文本分词并向量化后,我们可以得到词汇表中每个词在各个文本中形成的词向量,我们将下面4个短文本做了词频统计:corp...原创 2020-03-12 21:52:47 · 381 阅读 · 0 评论 -
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(一)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-03-08**引言:**下面是作者整理的关于Question Answering(QA)相关的论文文章,下面这10篇文章都顶会ICLR发表的文章,能找到源码的作者也直接贴出来了,如果你对Question Answering(QA)感兴趣或者也在找一些相关的文章,希望能够帮助你~...原创 2020-03-08 20:09:58 · 1064 阅读 · 0 评论 -
「自然语言处理(NLP)」自然语言生成(NLG)论文整理(一)
来源: AINLPer 微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-02-27引言: 下面是作者整理的关于自然语言生成(NLG)相关的论文文章,能找到源码的作者也直接贴出来了,如果你对NLG感兴趣或者也在找一些相关的文章,希望能够帮助你~~如果你一篇篇的论文下载不方便,你也可以关注 AINLPer 回复:NLG001 进行打包下载。...原创 2020-03-01 20:51:01 · 3437 阅读 · 0 评论 -
「自然语言处理(NLP)」神经机器翻译(NMT)论文整理(一)
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-02-27引言: 下面是作者整理的关于神经机器翻译(NMT)相关的论文文章,下面这10篇文章都顶会ICLR发表的文章,能找到源码的作者也直接贴出来了,如果你对NMT感兴趣或者也在找一些相关的文章,希望能够帮助你~~关于本次分享得十篇NMT文章,如果你一篇篇的论文下载不方便,你...原创 2020-03-01 20:47:04 · 1937 阅读 · 0 评论 -
一文全面了解ICLR国际顶会 + 历年paper整理分享(内含源码)!!
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-02-24引言 关于ICLR国际顶会的相关资料终于整理完了,本文首先介绍了ICLR会议的背景,接着梳理最近几年(2017年至2020年)会议论文接收的相关情况,最后作者整理出了每年论文的PDF列表(包含文章标题,作者,论文下载链接,开放代码地址,摘要,关键字,TL;DR...原创 2020-02-24 23:08:45 · 4385 阅读 · 0 评论 -
ICLR2020国际会议精彩演讲抢先看(含源码)!!
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-02-21 2020年的ICLR会议将于今年的4月26日-4月30日在Millennium Hall, Addis Ababa ETHIOPIA(埃塞俄比亚首都亚的斯亚贝巴 千禧大厅)举行。 2020年ICLR会议(Eighth International Con...原创 2020-02-21 17:09:09 · 22253 阅读 · 2 评论 -
ICLR2020国际会议焦点论文(Spotlight Paper)列表(内含论文源码)
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-02-21 2020年的ICLR会议将于今年的4月26日-4月30日在Millennium Hall, Addis Ababa ETHIOPIA(埃塞俄比亚首都亚的斯亚贝巴 千禧大厅)举行。 2020年ICLR会议(Eighth International Con...原创 2020-02-21 17:04:20 · 12501 阅读 · 0 评论 -
2020年 ICLR 国际会议最终接受论文(poster-paper)列表(二)
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-02-21 2020年的ICLR会议将于今年的4月26日-4月30日在Millennium Hall, Addis Ababa ETHIOPIA(埃塞俄比亚首都亚的斯亚贝巴 千禧大厅)举行。 2020年ICLR会议(Eighth International Con...原创 2020-02-21 16:49:20 · 18400 阅读 · 1 评论 -
2020年 ICLR 国际会议最终接受论文(poster-paper)列表(一)
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-01-22 2020年的ICLR会议将于今年的4月26日-4月30日在Millennium Hall, Addis Ababa ETHIOPIA(埃塞俄比亚首都亚的斯亚贝巴 千禧大厅)举行。 2020年ICLR会议(Eighth International Con...原创 2020-02-21 16:46:31 · 13522 阅读 · 0 评论 -
ZeRO & DeepSpeed:可以让训练模型拥有超过1000亿个参数的优化(微软)
来源:AINLPer 微信公众号编辑: ShuYini校稿: ShuYini时间: 2020-2-12论文获取方式:1、官网地址下载:https://arxiv.org/abs/1910.020542、关注 AINLPer 回复: ZeRO引言 人工智能的最新趋势是拥有更大的自然语言模型提供更好的准确性。但是,由于成本、时间和代码集成简单(没有对代码进行专门的优化),这将...原创 2020-02-13 22:01:00 · 1822 阅读 · 0 评论 -
重磅!「自然语言处理(NLP)」全球学术界”巨佬“信息大盘点(一)!
来源:AINLPer 微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-1-13引言 人工智能发展迅速,近几年自然语言处理已经成为热门研究方向,根据这些会议和期刊上近10年发表论文的引用情况(根据Goolge Scholar)生成了高引学者列表。供大家参考学习。1、Ryan T. Mcdonald(瑞安·麦克唐纳)个人主页:http...原创 2020-01-18 20:20:04 · 1713 阅读 · 0 评论 -
重磅!「自然语言处理(NLP)」全球学术界”巨佬“信息大盘点(二)!
来源:AINLPer 微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-1-17引言 人工智能发展迅速,近几年自然语言处理已经成为热门研究方向,根据这些会议和期刊上近10年发表论文的引用情况(根据Goolge Scholar)生成了高引学者列表。供大家参考学习。1、Liang Huang【俄勒冈州立大学】个人主页:http://we...原创 2020-01-18 20:18:27 · 3297 阅读 · 0 评论 -
重磅!ICLR 2020 「自然语言处理(NLP)」【Prosus AI】金融情感分析FinBERT模型(含源码)!!
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-1-15TILE: FinBERT: Financial Sentiment Analysis with Pre-trained Language Models.Contributor : Prosus AIPaper: https://openreview.net/pdf...原创 2020-01-18 20:16:37 · 5947 阅读 · 0 评论 -
「自然语言处理(NLP)」【Borealis AI】跨域文本连贯性生成神经网络模型!!
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-1-12TILE: A Cross-Domain Transferable Neural Coherence ModelContributor : Borealis AIPaper: https://www.aclweb.org/anthology/P19-1067.pdf...原创 2020-01-18 20:13:01 · 1058 阅读 · 1 评论 -
「自然语言处理(NLP)」【爱丁堡大学】基于实体模型的数据文本生成!!
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-1-10TILE: Data-to-text Generation with Entity ModelingContributor : 爱丁堡大学Paper: https://www.aclweb.org/anthology/P19-1195.pdfCode: None...原创 2020-01-18 20:10:54 · 966 阅读 · 0 评论 -
「自然语言处理(NLP)」华南理工 && 腾讯AI Lab(基于知识库的感知对话生成)
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2019-12-24TILE: Improving Knowledge-aware Dialogue Generation via Knowledge Base Question AnsweringContributor : 华南理工大学(广州)Paper: https://arxi...原创 2020-01-18 20:08:08 · 1572 阅读 · 0 评论 -
「自然语言处理(NLP)」卡内基梅隆(基于语言知识的循环神经网络(RNN优化))
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2019-12-23TILE: Linguistic Knowledge as Memory for Recurrent Neural NetworksContributor : Bhuwan Dhingra ,Zhilin Yang等(卡内基梅隆大学)Paper: https://...原创 2020-01-18 20:05:38 · 405 阅读 · 0 评论 -
「自然语言处理(NLP)论文解读」对话语境重构【滑铁卢大学&&华为】、会话状态跟踪【霍普金斯&&亚马逊】
来源:AINLPer微信公众号 (点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2019-8-28引言 本次有两篇为大家分享,第一篇主要针对汉语对话语境重构问题,作者将其拆分为引用表达检测和共同引用解析两部分,提出了一种端到端的模型结构。第二篇针对任务式对话系统中的会话状态跟踪问题,提出了两种神经网络结构:指针网络结构和转换网络结构。First B...原创 2020-01-18 20:01:58 · 976 阅读 · 0 评论 -
「自然语言处理(NLP)论文解读」中文命名实体识别(Lattice-LSTM模型优化)
来源:AINLPer微信公众号编辑: ShuYini校稿: ShuYini时间: 2019-8-27引言 今天主要和大家分享一篇关于中文命名实体识别的文章,本文分析Lattice-LSTM模型,并针对该方法的弊端提出将字符符号信息合并到字符向量表示中,提高了模型的性能(计算量、效果)。First BloodTILE: Simplify the Usage of Lexico...原创 2020-01-18 19:55:08 · 1902 阅读 · 0 评论 -
「自然语言处理(NLP)论文推送」第二弹(含源码)805
来源:AINLPer微信公众号编辑: ShuYini校稿: ShuYini时间: 2019-8-5引言 本次共有三篇Paper和大家分享,第一篇主要是序列对序列建模训练的问题,将复杂度由O(n2)O(n_2)O(n2)降到O(nlogn)O(nlogn)O(nlogn)。第二篇文章是提出一种新的训练体系结构,它可以使得单一模型支持具有多种输入模式的任务以及异步的多任务学习(作...原创 2019-08-06 00:13:06 · 423 阅读 · 0 评论 -
「自然语言处理(NLP)论文推送」清华大学XQA数据集(含源码)
来源:AINLPer微信公众号编辑: ShuYini校稿: ShuYini时间: 2019-8-24引言本篇主要给大家介绍两篇文章: 一篇是清华大学发表的XQA,该篇文章主要是针对开放式问答构建了一个跨语言的开放式问答数据集,该数据集(训练集、测试集)主要包括九种语言,9万多个问答。 第二篇是澳洲昆士兰阳光海岸发表的Katecheo,该篇文章构建了一个模块化系统,它可...原创 2019-08-24 16:39:40 · 1401 阅读 · 0 评论 -
「自然语言处理(NLP)论文推送」会话响应生成(含源码)【美国卡耐基梅隆大学】
来源:AINLPer微信公众号编辑: ShuYini校稿: ShuYini时间: 2019-8-24引言 本次主要给大家介绍两篇文章。第一篇文章主要讲的是会话响应生成,其主要针对的是当前神经网络对话系统倾向于在语料库中生成响应的问题,这样不利于会话响应的多样性。第二篇文章主要针对的是模型会话一致检测的问题,怎么才能评估呢?作者提出一种自动在数据集提取实例进行评估的方法。Fir...原创 2019-08-24 16:44:27 · 773 阅读 · 0 评论