大模型外挂知识库优化-大模型辅助向量召回

写在前面

大模型时代,通常采用向量召回的方式从文档库里召回和用户问题相关的文档片段,输入到LLM中来增强模型回答质量。

但是很多时候,用户的问题是十分口语化的,描述的也比较模糊,这样会影响向量召回的质量,进而影响模型回答效果。今天给大家带来一篇来自战士金大佬(@知乎战士金)的博文-大模型辅助向量召回。接下来分享两篇通过大模型的能力增强召回效果的文章,这两篇文章的内容都已经加入了langchain的标准组件,易用性还是比较好的,但是都有一些特定的使用场景。
在这里插入图片描述

HYDE

HYDE论文-Precise Zero-Shot Dense Retrieval without Relevance Labels,文章中强调了该文章主要适用于Zero-Shot场景。Zero-Shot指的是模型没有见过某个场景(或者某个数据集)的数据,就应用于该场景,和用数据训练模型以及在语言模型上下文中加入示例相对应。Zero-Shot体现了模型的迁移能力,我猜大部分同学都是在zero shot场景上使用向量化模型的,比如从网上下载个向量化模型权重,直接在自己的业务场景上用。其实,如果自己的业务场景有数据,微调一下向量化模型,在对应业务场景下召回率能提升不少。

既然论文题目强调了zero-shot,论文看的比较多的同学一定能马上反应过来,是不是在非zero shot(比如微调向量化模型)的场景下这方法效果就很一般呢?文章作者也给出了实验结果,该方法在结合微调过的向量化模型时,效果就没那么好了,非常依赖打辅助的LLM的能力。如果您有微调向量化模型的能力,这部分就可以跳过了。再强调一下,这篇文章是篇纯讨论召回的文章,最后的衡量指标也是nDCG和召回率这些指标,使用LLM单纯是为了提高召回效果的。

langchain链接:https://python.langchain.com/docs/use_cases/question_answering/how_to/hyde

论文思路非常简单:

  • Step1:用LLM根据用户query生成k个“假答案”。(大模型生成答案采用sample模式,保证生成的k个答案不一样,不懂LLM生成答案原理的同学可以看我这篇文章。此时的回答内容很可能是存在知识性错误,因为如果能回答正确,那就不需要召回补充额外知识了对吧。不过不要紧,我们知识想通过大模型去理解用户的问题,生成一些“看起来”还不错的假答案)
  • Step2:利用向量化模型,将生成的k的假答案和用户的query变成向量。
  • Step3:根据如下公式,将k+1个向量取平均:其中dk为第k个生成的答案,q为用户问题,f为向量化操作。图片
  • Step4:利用融合向量v从文档库中召回答案。融合向量中既有用户问题的信息,也有想要答案的模式信息,可以增强召回效果。

接下来我们从论文中挑一个比较重要的实验结果进行讨论。测试集为TREC DL19/20数据集,向量化模型使用的是Contriever模型,原始的该模型并未在TREC DL19/20数据集上训练过。模型有上标FT指的是向量化模型在TREC DL相关的数据集上微调过的。黄框标出来的是未使用hyde技术的baseline结果。绿框标出来的是未微调的向量化模型使用hyde技术的实验结果。红框标出来的是微调过的向量化模型使用hyde技术的实验结果。图片实验指标为NDCG@10,可以发现,对于没有微调过的向量户化模型(zero shot场景),hyde还是非常有用的,并且随着使用的LLM模型的增大,效果不断变好(因为LLM的回答质量提高了)。非常有意思的一点是是对于微调过的向量化模型,如果使用比较小的LLM生成假答案(小于52B参数量),hdye技术甚至会带来负面影响。

因为领域微调过的向量化模型性能已经不错了,NDCG@10指标能达到60多,LLM生成的假答案的知识性错误带来的负面影响大于回答模式信息带来的正面影响。所以向量化模型模型还是能微调就微调吧。

FLARE

和上一篇文章相比,FLARE论文比较新一点,评估的指标是直接看最后LLM的回答效果的,而非是向第一篇文章那样只讨论召回准确率。这篇文章涉及到针对同一个问题的多次召回,因此比较适合长文本回答。如果您所面对的场景大部分问题用一两句话就能回答,那收益就不是太大了。

langchain链接:https://python.langchain.com/docs/use_cases/question_answering/how_to/flare

对于大模型外挂知识库,大家通常的做法是根据用户query一次召回文档片段,让模型生成答案。只进行一次文档召回在长文本生成的场景下效果往往不好,生成的文本过长,更有可能扩展出和query相关性较弱的内容,如果模型没有这部分知识,容易产生模型幻觉问题。一种解决思路是随着文本生成,多次从向量库中召回内容。

有三种常用的多次召回策略:

  • a. 每生成固定的n个token就召回一次。
  • b. 每生成一个完整的句子就召回一次。
  • c. 将用户query一步步分解为子问题,需要解答当前子问题时候,就召回一次。

已有的多次召回方案比较被动,召回文档的目的是为了得到模型不知道的信息,a、b策略并不能保证不需要召回的时候不召回,需要召回的时候触发召回。c.方案需要设计特定的prompt工程,限制了其通用性。作者在本文里提出了两种更主动的多次召回策略,让模型自己决定啥时候触发召回操作。

策略1

通过设计prompt以及提供示例的方式,让模型知道当遇到需要查询知识的时候,提出问题,并按照格式输出,和toolformer的模式类似。提出问题的格式为[Serch(“模型自动提出的问题”)](称其为主动召回标识)。利用模型生成的问题去召回答案。召回出答案后,将答案放到用户query的前边,然后去掉主动召回标识之后,继续生成。当下一次生成主动召回标识之后,将上一次召回出来的内容从prompt中去掉。下图展示了生成拜登相关答案时,触发多次召回的例子,分别面对拜登在哪上学和获得了什么学位的知识点上进行了主动召回标识的生成。图片该方法也存在一些缺陷:

  • 1.LLM不愿意生成主动召回标识。解决方法:对"[“对应的logit乘2,增加生成”[“的概率,”["为主动召回标识的第一个字,进而促进主动召回标识的生成。
  • 2.过于频繁的主动召回可能会影响生成质量。解决方法:在刚生成一次主动召回标识、得到召回后的文档、去掉主动召回标识之后,接下来生成的几个token禁止生成"["。
  • 3.不微调该方案不太可靠,很难通过few shot的方式让模型生成这种输出模式。

策略2

策略1存在的第3点缺陷比较知名。因此作者提出了另外一个策略。该策略基于一个假设:模型生成的词对应该的概率能够表现生成内容的置信度。(传统的chatgpt接口是用不了策略2的,因为得不到生成每个词的概率。)

分为4个步骤:

  • Step0:根据用户的query,进行第一次召回,让模型生成答案。
  • Step1:之后,每生成64个token,用NLTK工具包从64个token里边找到第一个完整句子,当作“假答案”,扔掉多余的token。(和第一篇文章思想一样,利用LLM生成符合回答模式的“假答案”)
  • Step2:如果“假答案”里有任意一个token对应的概率,低于某一阈值,那么就利用这个句子进行向量召回。触发召回的“假答案”很可能包含事实性错误,降低召回准确率。设计了两种方法解决这个问题。方法1:将“假答案”中生成概率低于某一阈值的token扔掉(低概率的token很有可能存在错误信息),然后再进行向量召回。方法2:利用大模型能力,对“假答案”中置信度低的内容进行提问,生成一个问题,用生成的问题进行向量召回。
  • Step3:利用召回出来的文本,重新生成新的“真答案”,然后进行下一个句子的生成。

依然针对拜登的问题,下图给出了例子。图片接下来介绍一下实验结果。先声明一下,这篇文章用的召回器(向量化模型)是BM25,2009年被提出,基于统计学的原理,属于一种词袋模型,效果一般。笔者认为,如果用一些效果更好的基于神经网络的召回器,本文提出的方法提升就没那么大了。

召回器榜单:
中文:https://github.com/FlagOpen/FlagEmbedding/tree/master/C_MTEB
英文:MTEB Leaderboard - a Hugging Face Space by mteb

多次召回方案在更加开放的任务类型上提升比较小。如果是召回并回答一些模型不知道的垂类知识,FLARE效果提升应该是还不错的。图片作者证明了用生成”假答案“进行召回(Next)效果比用前一句进行召回效果更好(印证了HYDE观点)。图片当一个句子里生成的所有单词的概率都大于一个阈值t时,才不触发召回文档。当t=0%时,不触发召回文档;t=100%时,每次都触发召回。下图展示了不同的t的情况下LLM回答效果。可以发现t过大或者过小都不是最好的。总体上来看t=50%比较好。图片

总结

分享的这两篇文章都需要多次调用LLM,来增强召回,虽然在一些场景下比较有效,不过开销感觉有点太大了。其实最简单有效的提高召回效果的方式就是在自己业务的数据集上微调一下向量化模型。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
<think>好的,我现在需要帮用户解答关于向量数据库在大模型中的应用及实现方式的问题。首先,用户的问题集中在向量数据库和大模型的关系,以及如何在大模型中使用向量数据库。我需要根据用户提供的引用内容来构建回答,同时确保回答结构清晰,符合用户的要求。 首先,我需要回顾一下用户提供的引用内容。引用[1]提到向量数据库解决大模型的知识时效低、输入能力有限和准确度低的问题。引用[2]和[3]则列出了一些流行的开源向量数据库,如Faiss、Milvus等,并提到它们与大模型的集成。引用[3]还提到文本向量化和核心算法原理。 接下来,我需要确定回答的结构。用户希望了解应用及实现方式,所以可能需要分点讨论应用场景和具体实现步骤。另外,用户要求生成相关问题,所以我得在最后添加相关问题部分。 首先,应用场景方面,可能的点包括知识增强、长期记忆、上下文扩展和事实校验。每个点都需要结合引用内容,例如知识增强对应引用[1]中的时效性问题,长期记忆对应输入能力有限的问题。 然后,实现方式方面,可能需要分步骤:文本向量化、向量存储、检索与召回、结果融合。这里需要提到具体的算法如BERT、Faiss,以及操作步骤,比如使用Hugging Face进行向量化,使用Milvus存储,检索后的结果如何与大模型结合。 同时,要注意使用正确的LaTeX格式,比如行内公式用$...$,独立公式用$$...$$。例如,在文本向量化部分提到向量维度,可能需要数学表达式,如$d$维向量。 还需要确保每个引用都正确标注,比如在知识增强部分末尾添加[^1],在提到Faiss时引用[^2]或[^3]。 可能遇到的问题:需要确保每个步骤都清晰,并且技术术语解释到位,但不过于复杂。用户可能对向量数据库如何具体集成到大模型中不太清楚,所以需要举例说明,比如使用Hugging Face和Faiss的代码片段。 另外,用户示例中的Python代码是快速排序的例子,但当前问题涉及向量数据库和大模型,可能需要伪代码或示例说明,比如如何将文本转换为向量,存储到数据库,再检索的过程。 最后,生成的相关问题需要与主题相关,比如应用场景、性能优化、开源工具比较、数据更新机制等。 检查是否所有引用都正确使用,没有遗漏。例如,引用[3]提到文本向量化,应该在实现方式的第一步提到,并引用。引用[2]提到Faiss等,在存储部分需要引用或[^3]。 总结回答结构: 1. 应用场景(分点,每点对应引用) 2. 实现方式(分步骤,每步技术和引用) 3. 示例代码(伪代码或库的使用) 4. 相关问题 现在开始组织内容,确保符合格式要求,正确使用引用,并且语言自然流畅。</think>### 向量数据库在大模型中的应用及实现方式 #### 一、向量数据库在大模型中的核心作用 向量数据库通过存储和检索高维向量数据,解决了大模型面临的三大问题:**知识时效性低**、**输入长度受限**和**输出准确性不足**[^1]。其核心逻辑是将文本、图像等非结构化数据转换为向量,并通过相似性搜索实现高效检索。 #### 二、典型应用场景 1. **知识增强** 大模型训练数据截止于特定时间点(如GPT-3.5截止2021年),向量数据库可存储实时更新的知识(新闻、论文),检索后注入模型输入中,实现动态知识更新。 *公式示例*:查询扩展过程可表示为 $$ \text{Prompt} = [\text{原始问题}] \oplus \text{TopK}(V_Q, V_{DB}) $$ 其中$V_Q$为问题向量,$V_{DB}$为数据库向量集合。 2. **长期记忆管理** 突破大模型的上下文窗口限制(如4K/16K tokens),通过向量检索召回历史对话关键片段。例如智能客服系统可存储用户过往咨询记录。 3. **事实校验辅助** 对模型生成的答案进行向量检索验证,降低"幻觉"风险。当模型输出"量子计算机已实现商用化"时,可通过检索最新技术文档验证准确性。 #### 三、实现方式与关键技术 1. **文本向量化** 使用文本嵌入模型(如BERT、text-embedding-ada-002)将文本转换为$d$维向量,例如: ```python from sentence_transformers import SentenceTransformer model = SentenceTransformer('paraphrase-MiniLM-L6-v2') embeddings = model.encode(["大模型应用示例"]) ``` 2. **向量存储与索引** 选择数据库并建立索引: - **Faiss**:Facebook开发的稠密向量检索库,支持IVF、HNSW等索引算法 - **Milvus**:分布式向量数据库,适合海量数据场景[^3] ```python import faiss index = faiss.IndexFlatL2(768) # 假设向量维度768 index.add(embeddings) ``` 3. **检索与结果融合** 实现混合增强流程: ```python def rag_pipeline(query): query_vec = model.encode(query) scores, ids = index.search(query_vec, k=3) context = [doc_db[id] for id in ids[0]] return llm.generate(query, context) ``` #### 四、技术选型建议 | 数据库 | 特点 | 适用场景 | |------------|--------------------------|----------------------| | Faiss | 内存计算,高性能 | 中小规模静态数据集 | | Milvus | 支持分布式与持久化 | 企业级海量数据 | | ChromaDB | 轻量级,开发友好 | 快速原型开发 | #### 五、性能优化方向 1. **分层索引**:结合IVF+PQ(乘积量化)减少内存占用 2. **混合检索**:向量相似度+关键词过滤(如BM25) 3. **降维处理**:使用PCA将向量从768维降至256维
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值