RAG 开发四大痛点及解决方案,看到就是赚到!!

痛点1:知识缺失

知识库缺乏必要的上下文信息,导致 RAG 系统在无法找到确切答案时,可能会提供模棱两可的错误信息,而不是直接表明其无知。这种情况下,用户可能会接收到误导性的信息,从而感到沮丧。针对这一问题,有以下两种解决方案:

解决方案一:优化数据质量

“垃圾输入,垃圾输出。” 若源数据质量不佳,比如:存在相互矛盾的信息,即便是再完美的 RAG 流程也无法从劣质数据中提炼出有价值的知识。以下提出的解决方案不仅能解决这一难题,还能应对本文中提到的其他问题。高质量的数据是确保 RAG 流程顺畅运行的关键。

以下是一些常见的数据优化策略:

1. 清除噪音和无关信息:包括移除特殊字符、停用词(比如:“the”和“a”等常见词汇)以及 HTML 标签。

2. 识别并修正错误:涉及拼写错误、打字错误和语法错误。拼写检查工具和语言模型等资源对此很有帮助。

3. 去除重复数据:消除可能干扰检索过程的重复或相似记录。

解决方案二:优化提示词设计

由于知识库信息不足,系统可能会提供看似合理却错误的答案。在这种情况下,优化提示词可以显著提升系统表现。通过使用“若你不确定答案,请表明你不知道”等提示词,可以引导大模型承认其局限,并更清晰地表达不确定性。虽然这不能确保答案的绝对正确性,但在数据优化之后,设计恰当的提示词是提高系统透明度的有效手段之一。

痛点2:更相关的知识没有检索出来

在初步检索阶段知识未能被检索出来。关键的文档可能没有在检索组件给出的初步结果中,导致正确答案被遗漏,大模型因此无法提供精确的响应。研究指出:“问题的答案其实就藏在文档里,只是因为它排名不够高,所以没有被呈现给用户。”针对这一问题,有以下两种解决方案:

解决方案一:调整 chunk_size 和 similarity_top_k 超参数

在 RAG 模型中,chunk_size 和 similarity_top_k 是控制数据检索效率和准确性的两个关键参数。对这些参数的调整会影响到计算效率和信息检索质量之间的平衡。

解决方案二:Rerank 重排序

在将检索结果传递给大语言模型(LLM)之前对其进行重新排序,可以显著增强 RAG 系统的性能。LlamaIndex 的笔记揭示了有无重新排序的差别:

  1. 未经重新排序直接获取前两个节点的检索结果,导致结果不够精确。

  2. 相比之下,检索前 10 个节点并利用 CohereRerank 进行重排序,然后仅返回前两个节点,可以实现更精确的检索。

import os 
from llama _ index.postprocessor.cohere _ rerank import CohereRerank 

api _ key = os.environ  [  "COHERE _ API _ KEY"  ] 
cohere _ rerank = CohereRerank ( api _ key=api _ key , top _ n=2 ) # return top 2 nodes from reranker 

query _ engine = index.as _ query _ engine  ( 
similarity _ top _ k=10 ,  # we can set a high top _ k here to ensure maximum relevant retrieval 
node _ postprocessors= [ cohere _ rerank ],  # pass the reranker to node _ postprocessors 
 ) 

response = query _ engine.query  ( 
 "What did Sam Altman do in this essay?" , 
 )

痛点3:格式错误

输出格式不正确。当大语言模型(LLM)未能遵循以特定格式(比如:表格或列表)提取信息的指令时,我们提出了以下四种解决方案:

解决方案一:优化提示词设计

为了改善提示词并解决这一问题,可以采取以下几种策略:

  1. 明确指出格式要求。

  2. 简化指令并突出关键术语。

  3. 提供具体示例。

  4. 对提示词进行迭代并追加相关问题。

解决方案二:输出解析方法

输出解析可以用于以下目的,以确保获得期望的输出格式:

  1. 为每个提示/查询提供格式化指南。

  2. 对LLM的输出进行“解析”处理。

以下是一个使用 LangChain 输出解析模块的示例代码片段,该模块可在LlamaIndex 中应用。

from llama _ index.core import VectorStoreIndex , SimpleDirectoryReader 
from llama _ index.core.output _ parsers import LangchainOutputParser 
from llama _ index.llms.openai import OpenAI 
from langchain.output _ parsers import StructuredOutputParser , ResponseSchema 

 # load documents , build index 
documents = SimpleDirectoryReader  (  " .. /paul _ graham _ essay/data"  ).load _ data  (  ) 
index = VectorStoreIndex.from _ documents ( documents )

 # define output schema 
response _ schemas =  [ 
ResponseSchema  ( 
name=  "Education" , 
description=  "Describes the author's educational experience/background." , 
 ) , 
ResponseSchema  ( 
name=  "Work" , 
description=  "Describes the author's work experience/background." , 
 ) , 
 ] 

 # define output parser 
lc _ output _ parser = StructuredOutputParser.from _ response _ schemas  ( 
response _ schemas 
 ) 
output _ parser = LangchainOutputParser ( lc _ output _ parser )

 # Attach output parser to LLM 
llm = OpenAI ( output _ parser=output _ parser )

 # obtain a structured response 
query _ engine = index.as _ query _ engine ( llm=llm )
response = query _ engine.query  ( 
 "What are a few things the author did growing up?" , 
 ) 
print ( str ( response ))

解决方案三:Pydantic 程序

Pydantic 程序是一个多功能的框架,它能够将输入的字符串转换成结构化的 Pydantic 对象。LlamaIndex 提供了几种不同类型的 Pydantic 程序:

LLM 文本补全 Pydantic 程序:这类程序负责处理输入的文本,并将其转换成用户自定义的结构化对象,这个过程结合了文本补全 API 和输出解析。

LLM 函数调用 Pydantic 程序:这些程序通过使用 LLM 函数调用 API 来处理输入文本,并将其转换成用户指定的结构化对象。

预制 Pydantic 程序:这些程序设计用于将输入文本转换成预定义的结构化对象。

以下是一个使用 OpenAI 的 Pydantic 程序的示例代码片段:

from pydantic import BaseModel 
from typing import List 

from llama _ index.program.openai import OpenAIPydanticProgram 

 # Define output schema ( without docstring )
class Song  (  BaseModel  ) : 
title : str 
length _ seconds : int 


class Album  (  BaseModel  ) : 
name : str 
artist : str 
songs : List [ Song ]

 # Define openai pydantic program 
prompt _ template _ str =  """\ 
Generate an example album , with an artist and a list of songs.\ 
Using the movie { movie _ name } as inspiration.\ 
 """ 
program = OpenAIPydanticProgram.from _ defaults  ( 
output _ cls=Album , prompt _ template _ str=prompt _ template _ str , verbose= True 
 ) 

 # Run program to get structured output 
output = program  ( 
movie _ name=  "The Shining" , description=  "Data model for an album." 
 )

**解决方案四:**OpenAI JSON 模式

通过OpenAI的 JSON 模式,我们可以将`response_format`设置为`{ “type”: “json_object” }`,从而激活响应的 JSON 模式。当启用 JSON 模式后,大模型将被限制仅生成可以解析为有效 JSON 对象的字符串。JSON 模式确保了输出格式的强制性,但它并不支持根据特定模式进行验证。

痛点4:输出不完整

回答缺失完整性。虽然部分答复没有错误,但它们并未包含所有必要的细节,即便这些信息在上下文中是可获取的。比如:当有人提问:“文档A、B和C中讨论的主要议题是什么?”为了确保回答的完整性,单独对每份文档进行查询可能更为有效。

解决方案一:查询变换

在最初的 RAG 方法中,比较类型的问题表现尤为不佳。提升 RAG 推理能力的一个有效方法是引入查询理解层——在实际将查询向量存入存储之前进行查询变换。以下是四种不同的查询变换方法:

1. 路由:保留原始查询,并识别出与之相关的合适工具子集。随后,将这些工具指定为合适的选项。

2. 查询重写:保留选定的工具,但以不同方式重新构建查询,以便在同一工具集中应用。

3. 子问题分解:将查询拆分为几个更小的问题,每个问题针对不同的工具,由其元数据来决定。

4. ReAct Agent 工具选择:基于原始查询,确定使用的工具,并制定在该工具上运行的特定查询。

请参考以下示例代码片段,了解如何应用 HyDE(假设文档嵌入)这一查询重写技术。给定一个自然语言查询,首先生成一个假设文档/答案。接着,使用这个假设文档进行嵌入搜索,而不是使用原始查询。

 # load documents , build index 
documents = SimpleDirectoryReader  (  " .. /paul _ graham _ essay/data"  ).load _ data  (  ) 
index = VectorStoreIndex ( documents )

 # run query with HyDE query transform 
query _ str =  "what did paul graham do after going to RISD" 
hyde = HyDEQueryTransform ( include _ original=True )
query _ engine = index.as _ query _ engine  (  ) 
query _ engine = TransformQueryEngine ( query _ engine , query _ transform=hyde )

response = query _ engine.query ( query _ str )
print ( response )

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

### RAG 检索增强生成与中国四大名著的技术实现方案 #### 背景介绍 检索增强生成(RAG, Retrieval-Augmented Generation)是一种结合传统信息检索技术和现代生成式深度学习模型的方法,旨在提高自然语言处理任务中的准确性、相关性和时效性[^1]。该技术通过从外部知识库中提取相关信息并将其作为输入提供给生成模型,从而显著改善仅依靠预训练大模型可能存在的局限性。 在中国文化领域,尤其是针对中国四大名著——《红楼梦》、《西游记》、《三国演义》和《水浒传》,可以利用 RAG 技术开发一系列创新性的应用场景,例如文学作品的知识问答系统、个性化阅读推荐以及跨媒体内容创作工具等。 --- #### 应用场景分析 ##### 1. **基于 RAG 的文学知识问答** 构建一个专注于中国古典文学的知识问答平台,其中核心功能是以 RAG 方法支持用户提问关于四大名著的具体细节或背景故事。 - 外部知识库可由结构化数据组成,例如人物关系图谱、章节摘要、主题分类标签等。 - 使用向量数据库存储这些知识点的嵌入表示形式,并通过相似度计算快速匹配用户的查询请求[^3]。 示例代码片段展示如何加载知识库并向量化: ```python from sentence_transformers import SentenceTransformer model = SentenceTransformer('paraphrase-MiniLM-L6-v2') knowledge_base = [ {"text": "贾宝玉是《红楼梦》的主要角色之一", "source": "RedMansionDream"}, {"text": "孙悟空出自《西游记》,擅长七十二变", "source": "JourneyToTheWest"} ] embeddings = model.encode([item["text"] for item in knowledge_base]) ``` ##### 2. **个性化阅读推荐服务** 针对不同读者的兴趣偏好设计定制化的书籍章节或者情节片段推送机制。借助 RAG 提供的内容理解能力,可以从海量文本资源里筛选出最适合当前目标群体的部分进行呈现。 - 数据源除了原著本身外还可以扩展至评论文章、影视改编版本说明以及其他关联资料上。 - 利用机器学习算法评估每篇文档的相关程度得分之后再决定优先级顺序输出结果列表。 ##### 3. **虚拟导游讲解体验** 创建沉浸式的数字化博物馆参观流程,在线带领访客探索经典著作背后的文化价值和社会意义。每当遇到特定展品时触发预先设定好的语音解说词播放事件;与此同时后台运行着一套完整的NLP引擎负责动态调整表达方式使之更加贴近实际情境需求。 --- #### 关键技术组件 为了成功实施上述设想,以下是几个重要的组成部分: - **大规模语料收集与标注**:整理好原始素材并且按照统一标准加以标记以便后续加工处理阶段顺利开展工作; - **高效能搜索引擎搭建**:选用合适的框架比如 Elasticsearch 或者 Milvus 来完成初步过滤操作进而缩小候选范围加快响应速度; - **高质量对话管理模块集成**:引入先进的序列决策模型如 Transformer-based Dialogue Systems 实现流畅的人机交互过程控制逻辑架构布局合理清晰明了易于维护升级迭代周期短见效快效果佳用户体验优好评率高满意度强忠诚度高等特点突出表现优异值得信赖推广普及应用广泛前景广阔潜力无限未来可期! --- #### 总结 综上所述,采用 RAG 技术不仅可以有效解决现有单纯依赖大型预训练模型所带来的种种弊端问题,而且还能充分发挥各自的优势特长共同协作创造出更多可能性空间机会窗口等待我们去挖掘发现开拓进取勇攀高峰不断超越自我追求卓越成就非凡梦想成真指日可待功成名就万事俱备只欠东风扬帆起航乘风破浪直挂云帆济沧海!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值