基于知识感知双流解码的中文故事生成框架解析
1. 背景与挑战
在自然语言生成领域,根据给定故事大纲生成连贯合理的故事是一项重要且具挑战性的任务。目前,利用预训练语言模型在大纲条件故事生成方面已取得显著进展,如Rashkin等人使用GPT将大纲转化为完整故事,Guan等人发布的LongLM在中文故事生成中表现出色。然而,这些模型生成的故事仍存在大纲要点缺失的问题,原因在于模型在长文本建模过程中难以处理大纲要点间的复杂交互关系。
2. 现有方法的不足
人类在进行大纲条件中文故事生成时,可借助常识知识理解故事事件和实体,并将相关知识融入原始大纲后创作故事内容。但此前的工作在引入外部常识知识方面不够充分,例如Huang等人采用数据增强策略,Fang等人利用特殊标记连接大纲事件与段落并微调预训练模型,这些方法均忽略了故事背景下常识知识的运用。
3. 解决方案概述
为解决上述问题,提出了一种新颖的大纲条件中文故事生成框架,该框架具备双流解码机制,并结合外部常识知识,以确保生成的故事包含大部分大纲要点,同时提高故事的多样性。
3.1 双流解码机制
- 第一流解码 :使用LongLM作为生成模型,首先根据给定大纲训练模型生成故事,并找出未出现在生成故事中的大纲缺失元素。
- 形成伪故事 :将这些缺失的大纲要点组成句子,添加到生成故事的末尾,形成伪故事。
- 第二流解码 :基于大纲和伪故事再次训练生成模型,最终生成包含更多大纲要点的完整故事。 <
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



