在大语言模型(LLM)蓬勃发展的当下,问答系统成为其最广泛的应用场景之一。然而,LLM “幻觉” 的倾向犹如高悬的达摩克利斯之剑,时刻警示着用户不能盲目轻信其回复。为了提升回复的可信度与可解释性,引用机制应运而生,成为增强LLM输出可靠性的关键手段。深入探索LLM引用生成技术,对推动该领域的发展意义深远。
引用对大语言模型的重要性
引用在LLM应用中扮演着多重关键角色。一方面,它极大地增强了模型回复的可解释性。以构建大学课程聊天机器人为例,当学生询问作业截止日期时,若回复中包含引用,学生可通过查阅引用文档,轻松核实答案的正确性。这种方式为用户提供了追溯信息源头的途径,让回复不再是无本之木。另一方面,引用能够显著提升用户对LLM回复的信任度。相关研究表明,正确的引用可大幅增加信任,而随机或错误的引用则会降低信任。
在实际场景中,缺乏对LLM的正确认知以及引用“幻觉”问题带来了严重后果。如《纽约时报》曝光的律师在法庭上提交六个虚假案例引用的事件,该律师最终被罚款5000美元。这一极端案例凸显了在需要精确信息的场景中,引用不准确所引发的信任危机。随着LLM在搜索体验等领域的深度融合,如谷歌的AI Overview功能,引用的重要性愈发凸显。为满足不同场景需求,多种引用生成方法不断涌现。
引用生成方法剖析
朴素引用生成
朴素引用生成是最基础的方法,它的实现较为简单,主要依赖参考文档内容和特定的提示来指定引用格式。若所需文档数量较少,可直接将其添加到提示上下文窗口;若文档众多,则借助检索增强生成(RAG)技术,仅返回与用户查询最相关的文档。在实际操作中,需对文档进行分块处理,并利用元数据表跟踪文档块的来源及其他元数据,以便将引用范围细化到文档块级别。
这种方法的优势在于设置简便,对于一些对引用准确性要求不高的应用场景,或许能够满足需求。然而,其弊端也十分明显。首先,无法保证模型一定会生成引用;其次,生成的引用可能存在错误;再者,基于提示生成的引用,可能无法明确其所属文档。例如,在静态示例回复 “The project must include a working demo [1]” 中,并不能确定[1]具体指向哪份文档。

最低0.47元/天 解锁文章
1150

被折叠的 条评论
为什么被折叠?



