- 博客(1)
- 收藏
- 关注
翻译 WikiChat: 通过在Wikipedia上进行少样本对齐(Few-shot Grounding)来阻止大型语言模型聊天机器人的幻觉(Hallucination)
这篇论文介绍了一种基于少样本学习(few-shot LLM)的聊天机器人,几乎不产生幻觉,具有高度的对话性和低延迟。WikiChat基于英文维基百科,这是最大的精选自由文本语料库。WikiChat利用语言模型(LLM)生成回应,仅保留与事实相关的信息,并将其与从语料库检索到的附加信息结合,形成既真实又引人入胜的回应。我们基于GPT-4对WikiChat进行了提炼,生成了一个7B参数的LLaMA模型,质量损失最小,显著提高了其延迟、成本和隐私性能,便于研究和部署。通过一种新颖的混合人机和LLM评估方法
2024-01-09 20:37:10
140
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人