论文浅尝 | 基于常识知识图谱感知和图注意力机制的对话生成

本文提出了一种基于常识知识图谱的对话模型(CCM),利用静态和动态图注意力机制,提高了对话生成的适当性和信息丰富度。通过结合常识知识图谱,模型能更好地理解用户请求,生成更合适的回复,尤其在处理低频词和OOV(Out-of-Vocabulary)问题时表现出色。

OpenKG 祝各位读者中秋快乐!


640?wx_fmt=png

链接:http://coai.cs.tsinghua.edu.cn/hml/media/files/2018_commonsense_ZhouHao_3_TYVQ7Iq.pdf


动机

在以前的工作中,对话生成的信息源是文本与对话记录。但是这样一来,如果遇到 OOV 的词,模型往往难以生成合适的、有信息量的回复,而会产生一些低质的、模棱两可的回复。

为了解决这个问题,有一些利用常识知识图谱生成对话的模型被陆续提出。当使用常识性知识图谱时,由于具备背景知识,模型更加可能理解用户的输入,这样就能生成更加合适的回复。但是,这些结合了文本、对话记录、常识知识图谱的方法,往往只使用了单一三元组,而忽略了一个子图的整体语义,会导致得到的信息不够丰富。

为了解决这些问题,文章提出了一种基于常识知识图谱的对话模型(commonsense knowledge aware conversational modelCCM)来理解对话,并且产生信息丰富且合适的回复。本文提出的方法,利用了大规模的常识性知识图谱。首先是理解用户请求,找到可能相关的知识图谱子图;再利用静态图注意力(static graph attention)机制,结合子图来理解用户请求;最后使用动态图注意力(dynamic graph attention)机制来读取子图,并产生合适的回复。通过这样的方法,本文提出的模型可以生成合适的、有丰富信息的对话,提高对话系统的质量。


贡献

文章的贡献有:

1)首次尝试使用大规模常识性知识图谱来处理对话生成问题;

2)对知识图谱子图,提出了静态/动态图注意力机制来吸收常识知识,利于理解用户请求与生成对话;


方法

Encoder-Decoder 模型

经典的Encoder-Decoder模型是基于sequence-to-sequenceseq2seq)的。encoder模型将用户输入(user post)X 用隐状态 H 来表示,而decoder模型使用另一个GRU来循环生成每一个阶段的隐状态

640?wx_fmt=png其中 c_t 是上下文向量,通过注意力机制按步生成。最终,decoder模型根据概率分布生成了输出状态,并产生每一步的输出token

 

模型框架:如下图1所示为本文提出的CCM模型框架。

基于注意力机制的深度强化学习是一种结合了强化学习深度学习的方法,用于学习多跳关系路径并提高传统方法的效率、泛化能力可解释性。\[2\]在这种方法中,注意力机制被引入以帮助模型关注重要的信息。通过深度学习强化学习的结构化感知,模型可以根据已知实体关系推断出未知实体,并生成清晰且可解释的输出。这种方法的目标是最大化长期的累积奖励值,以完成特定的任务。\[1\]注意力机制的引入可以帮助模型更好地处理信息超载问题,类似于人脑通过注意力来解决大量输入信息的问题。\[3\]通过结合注意力机制深度强化学习,可以提高模型的性能应用范围。 #### 引用[.reference_title] - *1* *3* [深度学习(五、注意力机制与强化学习以及目前主要应用)](https://blog.youkuaiyun.com/qq_14835271/article/details/124807173)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [论文浅尝 | ​ADRL:一个基于注意力机制的知识图谱深度强化学习框架](https://blog.youkuaiyun.com/TgqDT3gGaMdkHasLZv/article/details/106464131)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值