文章介绍了RAG(检索增强生成)技术,用于解决大模型的幻觉问题。RAG通过"检索+生成"两阶段流程,先将用户问题转化为向量从外部知识库检索相关片段,再输入大模型生成具体回答。与传统数据库不同,向量数据库通过文本向量化表示支持语义相似度检索,解决了关键词匹配无法捕捉上下文关联的问题。构建向量数据库需将文本分片(chunking)后向量化存储,以提高检索效果。RAG技术能有效控制大模型输出相关且语义相通的内容。
在讲RAG之前,我们先说一个大模型的普遍现象,大家应该都用过大模型了,比如 ChatGPT、DeepSeek、豆包、文心一言等等…
那么大家在用的时候其实会发现,有时候大模型会乱回答,一本正经地胡说八道,语义不同,前言不搭后语。
举个例子:你问大模型,美国成立时间。 大模型可能会回答:美国成立在1997年,距离现在已有400年的历史…
这种现象叫hallucination,幻觉。大模型本质的就是不断的预测下一个生成的文字应该是什么,而选择预测概率中最大的一个。

每个词预测的结果
产生幻觉的原因有很多,比如训练大模型本身的数据问题、过拟合、微调引起的知识丧失、推理机制的不完善等等…
而我们要说的RAG就是为了降低大模型出现幻觉的概率,下面开始我们今天的主题。
RAG简介
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与文本生成的技术,旨在提升大语言模型在回答专业问题时的准确性和可靠性。

核心原理为 检索 + 生成 两阶段流程 :
- 检索阶段:将用户的问题转化为向量,从外部知识库或私有文档中(向量数据库)快速检索相关片段。
- 生成阶段:将检索到的信息输入大模型,生成结合上下文的具体回答。
这样说可能比较生硬,打个比方:LLM在考试的时候面对陌生的领域,只会写一个解字(因为LLM也只是局限于特定的数据集进行训练),然后就准备放飞自我了,而此时RAG给了亿些提示,让LLM懂了开始往这个提示的方向做,最终考试的正确率从60%到了90%!

LLM+RAG
简单来说就是大家的开卷考试!!那么问题来了,LLM开卷考试的话,这个卷是啥呢?这里就涉及到向量数据库了。
为什么是向量数据库?传统数据库为啥不行?
向量数据库
向量数据库是通过存储文本的向量化表示,支持基于语义相似度的快速检索, 解决了传统关键词匹配无法捕捉上下文关联的问题。
如果使用传统数据库(如MySQL)结合关键词检索,但无法实现语义理解,可能导致漏检或误检。 举个例子,同一个query进行搜索:“2024年腾讯的技术创新”。
- 向量数据库能匹配到语义相近但未包含关键词“腾讯”的文档(如“WXG的研发进展”)
- 传统数据库只能匹配到包含关键词的

那向量数据库是怎么知道语义相似的?
我们先明白向量数据库存储的是向量,不是文本,文本是大家能看懂的文字,而向量是一串浮点型数据。那么当所有的文本都成了浮点型数据后,**计算机可以通过数学公式(比如余弦相似度),量化语义相似性。

**传统数据库用原始文本检索,则无法处理同义词、多义词、语境差异等语义问题(例如“苹果”可能指水果或公司),所以很多传统搜索都会进行query改写这一步,来让搜索的输入query更精确。当然不仅仅是文本,万物皆可embedding,图片、videos、音频等等…
RAG 过程

RAG过程
回到最开头的例子:
- 当用户对大模型提问,“美国的成立时间”
- 此时会通过embeding模型将文本转成向量
- 再到向量数据库中搜索语言相近的内容
- 向量数据库会给出一个TopK,例如 Top100
- 接着在进行过重排序模型,再筛选出Top N,例如 Top10
- 将搜索到的内容和用户所搜索的query词"美国的成立时间"整个成一个prompt一起给LLM
- LLM基于这些输入内容和自身内容进行输出。
这样就可以有效的控制大模型输出尽可能的相关并且语义相通的内容。
那么向量数据库如何构造呢?

其实很简单:
- 将文章进行分片成多组chunk,也就是大量文本分解为较小段
- 进行向量化
- 存到向量数据库
那这里为什么要进行chunking呢?
chunking是为了把相同语义的 token 聚集在一起,不同语义的 token 互相分开,在长文档中各个片段的语义可能存在较大差异,如果将整个文档作为一个整体进行知识检索,会导致语义杂揉,影响检索效果。 将长文档切分成多个小块,可以使得每个小块内部表意一致,块之间表意存在多样性,从而更充分地发挥知识检索的作用。
所以如果我们的块太小会导致错过真正的相关内容,太大则可能导致搜索结果不准确
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】

1697

被折叠的 条评论
为什么被折叠?



