摘要:
SRL任务是捕捉句子中每个谓词的论元。传统的SRL不能分析对话,因为它只能分析单个句子,而省略和回指经常发生在会话中。目前的SRL都是句子级别的,文章提出会话SRL任务,论元可以是会话参与者,出现在当前句子或者会话历史中。
介绍:
省略和回指是对话理解中的一个大问题。省略是前文的简略,回指则是避免重复前文的替代。SRL是很多自然语言理解工具包中的语义分析工具。但是传统的SRL只能处理单个句子,不能捕捉多轮会话任务中信息。解决上面问题的方法一般是在SRL前重写句子。
文本介绍新的任务,在多轮会话而不是单个句子中进行SRL。在单句中没有的信息在整个回话中一般都会被提及。
一般的问句需要重写和指代消解后再进行SRL,会话SRL直接处理对话能够避免错误传播。
工作本文:
1.新的任务会话SRL,提供了标注数据集。
2.模型在领域迁移上的效果。
3.重写和会话生成任务表明会话SRL解析器效果更优。
数据集:
文章标注了三个数据集:DuConv、PersonalDialog和内部数据集NewsDailog。
1.DuConv:它是一个公共可用的知识驱动的系统对话数据集,聚焦电影和明星领域。它由30k个对话和270k个对话回合组成提供电影和电影领域的知识图(KG)名人。
2.PersonalDialog:包括250多个域。它是收集的微博和评论。
3.NewsDialog:此内部数据集是让两个参与者分别讨论提供的文件。两名参与者参与闲聊,在交谈中,话题是允许的自然地改变。
语义角色:遵循propbank,最常用的谓语-论元结构标准,一共有32个语义角色,在会话SRL中采用了其中的9个。数字论元(arg0-arg4),其中arg0这arg1是频率最高的;adjunct(附加物),AM-LOC,AM-TMP,AM-PRP,AM-NRG,分别为地点、时间、目的和负面论元。
标注细节:有两种类型的角色标注,一种是基于范围的,一种是基于依赖的。文章使用前者,标注元素的前后下标。预处理:对话连接之后使用stanford corenlp进行分句,分词、词性标注。
标注说明:论元只能出现在当前或者上一轮对话;论元不能指定给代词,除非前面没有出现过它的指代;如果论元是说话者或是听话着,则明确的指向两者的特殊标记(A或B);有多种选择时选择最近的谓语。

模型:

实验:
任务:
A.多轮对话重写:

B.多轮对话生成:

效果:
重写: 
生成:


介绍了一种新的语义角色标注(SRL)任务——会话SRL,旨在解决传统SRL无法处理多轮对话的问题。该任务能直接处理对话,避免错误传播,并提供了DuConv、PersonalDialog等数据集用于训练和评估。
7216

被折叠的 条评论
为什么被折叠?



