大模型知识幻觉问题及缓解方案

大模型知识幻觉问题

**知识幻觉:**垂直行业知识问答是目前我们所能感知的稍微能贴近LLM落地真实需求的场景,但其所面临的幻觉性问题一直是个无法根治的问题。
在这里插入图片描述
当前基于知识库外挂方式来缓解大模型幻觉问题的方案逐步受到大家关注,本质上是基于检索来增强大模型的生成能力。外挂知识库的一个很重要的点就是是否能够提供准确地上下文,通常我们会受限于相似度阈值以及最长上下文地限制,从而影响上下文构造的数据效率。
参考链接:https://mp.weixin.qq.com/s/9Bi0mUuJDWweGq4WwFhsOw
两个需要识别输入上下文中相关信息的任务,即多文档问题回答和键值对检索上的表现。当语言模型必须在长输入上下文中访问相关信息时,其性能会显著下降。
多轮对话中涉及到指代消解、上下文理解等多方面的考核点。
参考链接:https://mp.weixin.qq.com/s/9Bi0mUuJDWweGq4WwFhsOw

缓解大模型进行文档问答出现幻觉的一些方案

基于大模型进行智能问答的工作,其核心在于将用户问题和本地知识进行 Embedding,通过向量相似度(Vector Similarity)实现召回,通过 LLM根据召回的内容回答问题。

1、引入关键词和领域embedding模型的组合搜索

如ChatLaw=ChatLawLLM+ keywordLLM+lawsLLM,属于一种集成式的方案。

来源链接:https://zhuanlan.zhihu.com/p/641561673
首先,为了缓解单纯使用向量检索出现结果不相关的问题,Keyword LLM用于将用户口语化的诉求转化为法律行业关键词,并用于检索知识库中的法律知识。这个实际上是通过提取关联词的方案来加入一些限定的文档主题信息,而关于关键词提取,我们在前面介绍过TFIDF,TextRank传统方案,以及Keybert等有监督方案,这些都可以尝试。作者使用LLM进行关键词提取的,该类目前工作较少。
其次,由于领域语料的问题,通用的embedding可能效果交差,所以搞了一个专门的embedding模型,LawsLLM,其底层采用BERT对一些法律数据如文书,法规等进行训练,采用的是9.37k个国家判例法示例的数据集。
提取的过程为:遍历每个关键词,取关键词embddding和用户输入embedding做拼接【并设定阈值alpha做加权】,再与知识库的每个文章做相似度计算,每个文章的得分为与所有关键词+用户输入拼接向量相似度之和【这个的逻辑是能够照顾到所有的关键主题信息】,然后按照从大到小顺序进行排列,最终取TopK作为上下文。

2、细化文档标签的检索相关性提升

当文档数很多时,相关性计算上会收到很大挑战。因此,可以采用的方案是细化文档标签,以提升搜索相关性。例如,对文本进行分类,对于金融领域文本,根据板块进行分类,分成金融、法律、医疗等,也可以进一步细分为金融财务、金融审查、金融数据等多个标签,这样能够更好地缩小检索的问题域。

参考链接:https://mp.weixin.qq.com/s/-8yPjBpcPitZFyB95Zi2hQ

### 大模型幻觉问题的原因 大模型的“幻觉”现象是指其生成的内容可能不符合事实、逻辑或常识。这种现象的根本原因可以追溯到训练数据的质量以及模型架构的设计缺陷。具体来说,以下几个方面可能是主要原因: - **训练数据偏差**:如果训练数据集中存在错误的信息或者偏向某些特定观点,则可能导致模型学习到了不准确的知识[^1]。 - **上下文理解不足**:尽管现代的大规模预训练语言模型能够很好地捕捉文本模式,但在深层次理解和推理复杂关系上仍然有限制[^2]。 ### 解决方案探讨 针对上述提到的各种成因,研究者们提出了多种策略来缓解甚至消除这类问题的发生: #### 数据层面改进措施 通过提高输入给AI系统的原始资料质量, 可以有效减少由不良样本引起的误判情况. - 清洗并筛选高质量的数据源作为新的训练集组成部分之一; 同时增加多样性和代表性更强的例子以便让算法接触到更广泛的真实世界场景描述而不是局限于某一类固定表达方式. #### 模型结构优化建议 除了依赖更好的原材料之外, 对现有框架本身做出调整同样重要. - 引入外部知识库辅助决策过程,在遇到不确定领域内的查询请求时优先检索权威出处而非单纯依靠内部记忆机制作答;这种方法特别适用于那些需要高度精确性的应用场景比如医疗诊断咨询等领域. - 开发专门用于检测潜在虚假陈述的功能模块并与主体网络无缝集成在一起工作——即每当产生一段新文字之前都会经过额外一轮验证环节确认无误后再正式输出最终版本结果出来展示给用户查看体验更好同时也更加可靠可信度高得多! ```python def validate_output(model_output): """ A function to validate the model's output against a knowledge base or set of rules. Args: model_output (str): The text generated by the language model Returns: bool: Whether the output is valid according to external criteria """ # Example implementation using an imaginary validation API api_response = call_validation_api(model_output) return api_response['isValid'] ``` ### 结论 综上所述,解决大模型产生的“幻觉问题是当前人工智能技术研发中的一个重要课题。这不仅涉及到技术手段上的创新应用,还需要社会各界共同努力营造良好的信息生态环境,从而促进整个行业健康稳定向前发展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yurous

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值