本文是LLM系列文章,针对《ROLELLM: BENCHMARKING, ELICITING, AND ENHANCING
ROLE
摘要
大型语言模型(LLM)的出现为角色扮演等复杂任务铺平了道路,角色扮演通过使模型能够模仿各种角色来增强用户交互。然而,最先进的LLM的闭源性质及其通用训练限制了角色扮演优化。在本文中,我们介绍了RoleLLM,这是一个用于基准测试、引出和增强LLM中角色扮演能力的框架。RoleLLM包括四个阶段:(1)100个角色的角色档案构建;(2) 用于角色特定知识提取的基于上下文的指令生成(Context Instruction);(3) 使用GPT(RoleGPT)进行口语风格模仿的角色提示;以及(4)用于微调开源模型以及角色定制的角色条件指令调整(RoCIT)。通过Context Instruction和RoleGPT,我们创建了RoleBench,这是第一个系统化、细粒度的角色扮演基准数据集,共有168093个样本。此外,RoleBench上的RoCIT产生了RoleLLaMA(英语)和RoleGLM(中文),显著增强了角色扮演能力,甚至实现了与RoleGPT(使用GPT-4)1相当的结果。
1 引言
2 相关工作
3 方法
4 RoleBench:角色扮演能力基准
5 实验
6 结论
我们介绍了RoleLLM,这是一个在LLM中对角色扮演进行基准测试、引出和增强的框架。我们构建了100个角色档案,提出了用于口语风格模仿的RoleGPT,以
RoleLLM是一个评估、激发和增强大型语言模型(LLM)角色扮演能力的框架。通过角色档案构建、上下文指令生成、角色提示模仿和角色条件指令调整,RoleLLM创建了RoleBench基准数据集,并通过该数据集提升了模型的角色扮演性能,如RoleLLaMA和RoleGLM。
已下架不支持订阅
244

被折叠的 条评论
为什么被折叠?



