End to end Memory Networks with Knowledge Carryover for Multi-Turn Sporken Language Understanding

本文介绍了一种使用端到端记忆网络处理多轮次口语语言理解的技术。该方法通过编码对话历史及其意图和槽位信息来克服信息传递错误及遗忘的问题,并运用注意力机制进行解码。实验结果表明,在微软小娜数据集上的表现优于单轮RNN模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要

这是一篇讲述在利用端到端记忆网络做多轮次的口语语言理解的论文。里面提及利用多轮次的信息主要有两个挑战:1、上X轮的错误有可能会传送到后面的轮次。2、上X论的信息可能会忘记。本文采用对对话和对应的意图以及槽信息都编码为记忆,然后用注意力机制进行解码,利用储存的语义同时应用在意图分类和槽信息填充的任务中。在微软小娜的数据集上比单轮的rnn有更加的效果。

小评

用编码的方式实现对多轮次的对话信息的保存是一个今年比较常用的方法,而且这种方法的网络结构相对简单,符合奥卡姆剃刀原理。但是使用的是非公开数据集。有不同的结构的比较但是没有将研究进展重现在私有数据集中不得不说有点遗憾。我还是比较想看到他这种模型和Yang的双向LSTM的网络进行对比,两者都是对多伦茨的对话进行了处理,Yang的网络跑起来太费劲了。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值