FutureTOD: Teaching Future Knowledge to Pre-trained Language Model for Task-Oriented Dialogue

828 篇文章

已下架不支持订阅

FutureTOD是一种新型的对话预训练模型,通过自训练框架将未来知识融入对话上下文表示。该模型提高了在任务导向对话任务中的泛化、鲁棒性和学习歧视性对话表征的能力,优于TOD-BERT和DSE等基线。

本文是LLM系列文章,针对《FutureTOD: Teaching Future Knowledge to Pre-trained Language Model for Task-Oriented Dialogue》的翻译。

FutureTOD:将未来知识传授给预训练的语言模型,用于任务导向对话

摘要

基于通用文本的预训练语言模型在NLP场景中取得了巨大成功。但是,一般文本和任务导向对话之间语言模式的本质差异使得现有的预训练的语言模型在实践中用处不大。目前的对话预训练方法依赖于对比框架,并面临着选择真正积极因素和硬消极因素的挑战。在本文中,我们提出了一种新的对话预训练模型FutureTOD,该模型使用自训练框架将未来知识蒸馏到先前对话上下文的表示中。我们的直觉是,一个好的对话表达既能学习当地的上下文信息,又能预测未来的信息。对不同下游对话任务的大量实验证明了我们模型的有效性,特别是泛化、鲁棒性和学习歧视性对话表征能力。

1 引言

2 模型

3 实验

4 定性分析

5 相关工作

6 结论

我们提出了一种新的对话预训练模型FutureTOD,它将未来的知识蒸馏到对话表征中。与现有的对比工作不同,我们采用了一个简单的自我训练框架来相互学习,并消除对比对的要求。我们对各种面向任务的对话任务进行了全面的实验,包括意图分类、域外检测、对话状态跟踪、对话行为预测和反应选择。FutureTOD在所有场景中都显著优于TO

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值