基于 RoBERTa - GPT2 的共情对话生成技术解析
1. 共情对话生成概述
在自然语言处理领域,共情对话生成是一个重要的研究方向。它旨在让对话系统能够感知说话者的情感,并给出富有共情的回应,更贴近真实的人际交流场景。
1.1 相关工作回顾
- 开放域和闲聊对话模型 :此前已有众多研究聚焦于开放域和闲聊对话模型。随着公开数据集的增多以及数据驱动学习方法的兴起,一些工作致力于让闲聊对话更具吸引力。例如,部分研究通过基于人物画像来生成回复,以提升回复的个性化程度,但这类个性化对话模型往往难以考虑对话伙伴的感受。
- 情感和共情对话生成 :现有的情感对话模型通常依据预定义的情感来生成回复,而共情对话模型则能够感知说话者的情感,无需额外明确确定回应的情感类型,更符合现实交流场景。近年来,有不少关于共情对话生成的研究成果,如创建基准和数据集、提出多分辨率交互式模型、多类型知识感知框架等。同时,也有基于预训练模型的研究,如 BERT2BERT、EmpTransfo 和 CAiRE 等。
1.2 数据集的重要性
在共情对话生成中,带有情感标签的语料库起着关键作用。以下是一些相关数据集:
| 数据集名称 | 特点 | 问题 |
| — | — | — |
| DailyDialog | 对每个话语进行手动情感标注 | 仅有 5%的话语有不同的情感标签,数据分布极不均衡 |
| EmotionLines | 从电视剧和人际聊天中收集,每个话语标注七种情感类别之一 | 仅有 16.68%的
RoBERTa-GPT2共情对话生成技术解析
超级会员免费看
订阅专栏 解锁全文
33

被折叠的 条评论
为什么被折叠?



