Utterance Manipulation Strategies(UMS) For Multi-turn Response Selection-论文阅读

本文针对基于检索的多回合对话系统中的回答选择任务,发现现有预训练语言模型过于依赖语义相关性而忽视对话顺序。为此,提出了语句操纵策略(UMS),包括插入、删除和查找策略,以增强模型对对话一致性的理解。UMS是一种自我监督方法,无需额外标注,可提升模型在多语种数据集上的性能,实现了对话时序依赖性的有效学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Do Response Selection Models Really Know What’s Next? Utterance Manipulation Strategies For Multi-turn Response Selection-论文阅读
会议:AAAI 2021
原文链接:
https://arxiv.org/abs/2009.04703v1

摘要(翻译):

在本文中,我们研究了在基于检索的多回合对话系统中,在给定用户和系统话语历史的情况下选择最佳回答的任务。最近,经过预训练的语言模型(如伯特、罗伯塔和伊莱克特拉)在各种自然语言处理任务方面都有显著的改进。这种和类似的回答选择任务也可以通过使用这种语言模型来解决,方法是将任务表述为对话-回答二分类任务。尽管使用这种方法的现有工作成功地获得了最先进的结果,但我们观察到,以这种方式训练的语言模型倾向于根据历史和候选对象的相关性进行预测,而忽略了多回合对话系统的顺序性。这表明单独的回答选择任务不足以学习话语之间的时间依赖关系。为此,我们提出了**话语操纵策略(utterance manipulation strategies,UMS)**来解决这个问题。
具体来说,UMS包括几种策略(即插入,删除和搜索),这有助于回答选择模型保持对话一致性。此外,UMS是一种自我监督的方法,不需要额外的注释,因此可以很容易地并入现有的方法中。在跨语种数据集和模型上的广泛评估表明,UMS在教学对话一致性方面非常有效,这导致模型在多个公共基准数据集上以显著的优势推动了最先进的技术。

一、 介绍:

将传统语言模型运用在回答选择上要面临三个问题:
1) 基于目标数据集上的领域适应需要的额外训练的代价是高昂的;
2) 将回答选择理解为对话-回答二分类问题不能够表示话语内和话语间的联系;
3) 现有模型倾向于根据回答与上下文的语义上的相似程度来选择最佳回答。
在这里插入图片描述
如图,对于这一个问句的回答,回答a比较符合实际,但Bert会给回答b更高的分数,是因为模型高度依赖它的语义相似度。
为解决这个问题,我们提出了UMS策略,UMS包括三个有效的策略,帮助模型学习话语间的时序依赖性和语义匹配,保持对话的连续性。
贡献:
1) 对现有模型进行研究,发现这些模型更通过对话(dialog)而不是下一个句子来与预测语义相似的句子;
2) 提出UMS,模型在领域内分类问题上表现极佳;
3) 在Ubuntu、Douban、E-commerce数据集上进行测试

二、 方法:

1、 预训练的语言模型-Pre-trained Language Models:BERT和ELECTRA
2、 领域特定的后训练- Domain-specific Post-training:由于上下文语言模型是在通用语料库(如多伦多图书语料库和维基百科)上预先训练的,因此,如果领域发生变化,直接在下游任务上微调这些模型就不太有效。通常的做法是使用目标域中的文本,以语言建模为目标,进一步训练此类模型,以减少负面影响。我们也在这项工作中使用了这种后训练方法,并展示了其在提高绩效方面的有效性。
3、 训练回答选择模型:(没怎么看),大概是通过一个pointwise approach学习一个cross-encoder来获得上下文和回答的表示

UMS:

该框架由三部分组成,分别对多轮对话选择中语句的1)插入;2)删除;3)查找。这三个部分和回答选择模型在fine-tuning过程中共同训练。为训练辅助任务,我们分别为话语插入、删除和查找任务添加了新的特殊标记[INS], [DEL], [SRCH]。
1) 语句插入:
目的:模型不仅需要能区分语义不同的句子,还要能区分语义相关度的话语是否连续。
从原始对话上下文中提取k个连续语句,然后随机选择一个要插入的语句,让模型去找该话语应该插入的位置,在每个语句前和最后一个语句后放置[INS]标记(表示目标语句可能的位置)
输入:在这里插入图片描述
Ut:目标语句;[INS]t:目标插入的token
示意图:在这里插入图片描述2) 语句删除:
选出一段包含k个语句的对话,通过语句插入插入一句随机的句子,模型需要从这k+1个句子中找到其中不正确的语句删除,每个语句之前插入[DEL]来标记位置 。
输入:
在这里插入图片描述
Urand:随机语句
示意图:
在这里插入图片描述

3) 语句查找:
前两个任务结束后,获得了一段顺序正确的对话,
在对话中随机选一个句子,模型可以找到他的前一个句子。
给定一段k个句子的对话,除了最后一句话,将剩下的句子打乱顺序,然后给每个乱序的句子插入[SRCH]标记。从最后一句开始向前查找句子。
输入:
在这里插入图片描述
Ui’:乱序的句子;uk:最后一句
示意图:
在这里插入图片描述
多任务学习设置:
将每个任务的输入序列输入到语言模型中,输出特殊标记,来表示模型任务的结果。判断这些任务中句子是否被放在正确的位置。
三、 实验结果
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值