随着ChatGPT、DeepSeek、文心一言等大语言模型的快速迭代,AI技术已从实验室走向现实,深度渗透到日常沟通、办公协作、内容创作等场景。对程序员而言,大模型在代码生成、Bug修复、文档撰写等领域的效率提升尤为显著——过去需要几小时调试的代码,如今通过大模型辅助可能半小时就能解决。因此,理解并运用AI技术已成为不可逆转的趋势。
那么,常被提及的大模型究竟是什么?频繁出现的Prompt、RAG、Agent等术语又该如何理解?本文将以入门视角解析这些概念,帮助读者建立对大模型的基础认知。
1、 基础概念入门
谈到AI(Artificial Intelligence,人工智能)时,模型、算法、训练、推理等概念是绕不开的核心。我们可以用“区分苹果和香蕉”的例子来通俗解释:
- 模型:可以理解为一个“初学者”,最初对苹果和香蕉毫无认知。
- 训练:教这个“初学者”认识两者的过程。比如展示 thousands 张苹果(红色/圆形/带柄)和香蕉(黄色/弯曲/无柄)的图片,并明确告知特征差异。通过反复学习,模型逐渐掌握区分规律。
- 算法:训练时采用的“教学方法”。比如先教颜色特征,再教形状特征,还是同时对比两者的纹理——不同算法会影响模型学习的效率和准确性。
- 推理:训练完成后,给模型一张从未见过的水果图片,它能根据学到的特征判断是苹果还是香蕉。这个“判断过程”就是推理。
- 数据集:模型学习的“教材”。通常分为训练集(用于教学)和测试集(用于检验学习效果)。比如用8000张图片做训练,2000张新图片做测试,看模型能否准确区分。
- 参数:模型的“认知规则”。类似数学公式
y=wx+b中的w(权重)和b(偏置),参数决定了模型如何根据输入(如图像特征)输出结果(如“这是苹果”)。训练的过程,本质是模型通过海量数据自动调整参数,找到最精准的“判断规则”。 - 泛化能力:模型对“新教材”的适应力。比如训练时只见过红苹果,但若能认出青苹果,就说明泛化能力强。
- 过拟合:模型变成“死记硬背的书呆子”。比如只记住训练集中苹果的特定角度,遇到稍微倾斜的苹果就认不出来。
- 神经网络:模拟人脑分层学习的系统。类似人先看颜色、再看形状、最后综合判断,神经网络通过多层“神经元”逐步提取特征(如第一层识别颜色,第二层识别形状),最终完成分类。
- 微调(补充概念):在基础训练后,针对特定场景优化模型。比如已能区分苹果和香蕉的模型,再用“红富士苹果”“帝王蕉”的图片进一步训练,让它更懂细分品种。

2、 什么是大模型?
大模型(Large Model)又称基础模型(Foundation Model),是指参数规模超十亿、甚至千亿级的神经网络模型。它能处理自然语言、图像、音频等复杂任务,而我们常说的“大模型”,更多特指大语言模型(LLM,Large Language Model),如ChatGPT、DeepSeek、讯飞星火等。
2.1 “大”在哪里?
大模型的“大”体现在四个核心维度:
- 参数规模大:普通模型参数可能只有百万级,而大模型动辄数十亿(如GPT-3有1750亿参数),参数越多,模型能“记住”的规律越细致。
- 训练数据大:训练数据涵盖书籍、网页、论文等,总量可达万亿tokens(相当于千亿汉字),覆盖多语言、多领域知识。
- 架构规模大:采用更深、更复杂的神经网络结构(如GPT的Transformer架构),能处理更长的文本(如GPT-4支持万字符输入)。
- 算力需求大:训练一次可能需要上万块GPU持续数月,成本高达数千万美元,这也是大模型研发门槛高的原因之一。
2.2 大模型的两大核心能力
2.2.1 涌现能力
当参数和数据规模达到临界点时,大模型会“解锁”新能力,这就是涌现能力(Emergent Abilities)。比如:
- 未专门训练过代码,但能生成Python、Java代码;
- 能理解幽默、双关语,甚至创作诗歌、剧本;
- 能进行逻辑推理(如“小明比小红高,小红比小刚高,谁最高?”)。
这就像人突然“开窍”——从机械记忆升级为灵活运用。
2.2.2 泛化能力
大模型能适应未训练过的新任务,即泛化能力(Generalization Abilities)。比如:
- 训练时学过“写邮件”,就能举一反三写请假条、邀请函;
- 学过“翻译中文到英文”,就能快速掌握“翻译中文到日文”的逻辑。
3、 Prompt工程:和大模型“好好说话”
大模型的输出质量,很大程度取决于你如何“提问”——这就是Prompt(提示词)的作用。Prompt工程则是研究如何编写高质量提示词的技术。
3.1 什么是Prompt?
Prompt是发给大模型的指令(通常是自然语言),目的是清晰描述任务,引导模型生成符合预期的结果。比如:“写一段Python代码,实现两数相加”“总结这篇文章的核心观点,用3句话表达”。
3.2 高质量Prompt的要素
一个好的Prompt通常包含四部分:
- 任务说明:明确要做什么。比如“分析这段代码的漏洞”比“看看这段代码”更清晰。
- 上下文:提供背景信息。比如问“如何优化这个函数?”时,附上函数的用途(如“这个函数用于处理用户登录,目前响应太慢”)。
- 问题:具体的疑问点。比如“这个循环为什么会超时?”比“这代码有问题吗”更精准。
- 输出格式:指定结果形式。比如“用列表分点回答”“输出JSON格式”。

3.3 编写Prompt的实用技巧
编写规范的Prompt是与大语言模型进行有效沟通的基础。
经典的Prompt通常由任务说明,上下文,问题,输出格式等部分中的一个或几个组成以下是规范编写Prompt需要满足的要求。
3.3.1.1 任务说明要明确
清晰、具体的任务说明能够保证模型准确理解任务要求,产生符合预期的输出。
以下是任务编写的技巧:
- 使用明确的动词:选择能够清晰表达动作的动词。如:“判断”、“生成”等;避免使用模糊的动词,如:“处理”、“操作”等。
- 具体的名词:使用具体的名词来定义任务的输出或目标
- 简洁明了:任务说明应简洁且直接,避免冗长或复杂的句子结构,使模型能够快速抓住任务的核心要求。
- 结构化布局:在较长的 Prompt 中,将任务说明放置在开头和结尾,因为模型通常更关注这些部分的信息。

3.3.1.2 上下文丰富且清晰
丰富且清晰的上下文能够显著提升模型的回答准确率。
丰富体现在:内容可以是与问题直接相关的背景信息、具体的演示示例、或是对话历史等。 清晰体现在:上下文信息必须与问题紧密相关,避免包含冗余或是不必要的信息。

3.3.1.3 输出格式要规范
规范的输出格式对于确保模型的输出的可用性至关重要。
通过指定明确的输出格式,使模型的输出结构化,便于下游任务直接提取、使用生成内容。或者直接提供输出格式的具体示例,使模型按照期望的输出格式输出内容。

3.3.1.4 排版要清晰
- 使用一致的分隔符:选择并坚持使用一种或集中分隔符来区分不同的prompt部分。如:# - 、 等;
- 合理使用空白、缩进;增强Prompt可读性,帮助模型区分不同的内容块;
- 清晰的标题和子标题:帮助模型快速识别每个部分的主题;

3.3.2 合理归纳提问
- 复杂问题拆解:将复杂问题拆解成更小、更易于理解的子问题,引导模型逐一回答,确保子问题得到充分考虑和解答。随后将子问题的答案汇总,形成全面回答。
- 追问:根据回答去做追问。
3.3.3 善用心理暗示
- 角色扮演:为大模型设定一个详尽的角色。在指令中包含具体属性、职责、知识和技能。

- 情景代入:将特定情境下所需的专业知识、历史背景等信息嵌入到模型的响应中。

4、 AI Agent
如果最近有关注科技新闻,一定会被一款名为 Manus 的AI Agent刷屏。Manus一经发布,就引起广泛关注,内测资格甚至一度被炒至高价。到底什么是AI Agent?AI Agent与大模型又是什么关系?
4.1 为什么需要AI Agent?
设想一个场景,我们想要规划一次跨国旅行,涉及到机票的预定、酒店的选择、当地天气以及景点推荐等方面。
如果借助大模型帮助我们规划的话,需要我们自己先思考,将任务拆分成订酒店、订机票、推荐景点等任务,然后我们需要根据拆分好的任务,不断输入任务指令,不断调整,才能完成这件事。任务是交互式的,即通过提示词一步一步来回答问题。
如果有一个智能助手,也就是Agent,我们只需要给出“规划一次跨国旅行”的指令,由助手帮助我们拆解任务、执行任务,不需要我们自己动脑子、做格外的操作,我们只关心助手最终反馈的结果。
总结来说,需要Agent的理由如下:
- 能够处理复杂任务:单一工具(如:
LLM)无法直接完成多步骤、多工具协作的任务; - 能够自主决策:=能根据用户偏好(如预算、时间)自动调整计划,例如优先选择低价航班或高评分酒店;
- 能够弥补大模型的不足:大模型无法直接访问实时数据(如最新航班价格),但
Agent可以通过API获取。
4.2 什么是AI Agent?

如果查询Agent的中文释义,意思是:代理人,代理商,或是经纪人。
可以将Agent理解为一个中间人的角色,代替别人做事。如:艺人的经纪人帮助艺人去完成商务活动的谈判、对接等工作,无需艺人自己操心,艺人只关心结果。
AI Agent:可以理解为用户和大模型(LLM)之间的中间人,由Agent代替用户去操作大模型。用户只需要给出简单指令,Agent便会自己独立解决问题,而不是“指哪打哪”,整个过程无需用户的干预。
4.2 AI Agent与LLM是什么关系?
Agent = LLM(大模型)+ Planning(规划)+ Memory(记忆)+ Tools(工具)
AI Agent是一种能利用大模型进行自主的任务规划、决策与执行的系统。如果把Agent看作一个人,那么大模型(LLM)就是Agent的大脑。
如果说大模型是一本百科全书,而AI Agent就像一个办事能力强的助手。助手会根据需求,把任务拆解成多个步骤,并主动找到资源或工具来完成任务。
Agent关键组成部分如下:

规划(Planning): Agent 通过规划来决定如何实现目标,把大任务拆解为子任务,并规划执行任务的流程;并在任务执行的过程中进行思考和反思,决定是继续执行任务,或判断任务完结并终止运行。
记忆(Memory): Agent 拥有的存储器,可用来存储短期记忆或长期记忆。
- 短期记忆:执行任务过程中的上下文,会在子任务的执行过程产生和暂存,在任务完结后被清空;
- 长期记忆:如记录使用者的任务历史、个人信息、兴趣偏好等,长时间保留的信息,一般存到外部数据库。
工具(Tools): Agent 的手脚。可以自动调用各种工具API,例如:计算器、搜索工具、代码执行器、数据库查询工具等。有了这些工具API,可以扩展Agent的能力,执行任务。
行动(Action):智能体根据规划的结果采取的实际行动。
总结来说:LLM 扮演了 Agent 的 “大脑”,在 Agent 这个系统中提供推理、规划等能力。
5、 检索增强生成(RAG)
5.1 为什么需要RAG?
举个常见的例子:让大模型比较13.8和13.11哪个大,它可能会很自信地告诉你13.11更大。这种明显违背数学常识的回答,暴露了大模型在回答某些问题时,可能会存在一本正经胡说八道的情况。

正如上述例子展示的那样,大模型并非无所不能,有些时候会胡言乱语,即产生“幻觉”。可以从两方面去理解幻觉:
模型自身导致的“幻觉”。大模型实际上是依赖于统计概率来预测下一个最可能的词语,而非基于事实查询。由于训练数据和参数学习上的不足,可能会出现“幻觉”,即生成看似合理实则逻辑混乱或者违背事实的回答。
训练数据导致的“幻觉”。大模型的回答都是从已有的知识(数据)中学习到的,而知识可能存在以下问题:
- 知识过时:训练模型时所用的数据是过时的数据;
- 知识边界:垂直领域或者私有的知识,大模型可能不清楚;
- 知识偏差:训练数据的正确性无法保证,可能存在错误的知识。
针对大模型存在的“幻觉”问题,可以通过增强检索生成(RAG)技术来补足短板,从而提高大模型的回答质量。
5.2 什么是RAG?
RAG(Retieval-Augmented Generation,检索增强生成):建立一个外部数据库,将大模型不知道的知识存储在外部数据库中,供大模型进行检索调用,用于提高大模型回答的质量。
用户提问后,根据用户的问题到外部数据库中检索得到上下文(context),得到的上下文与用户的问题整合后,作为Prompt提示词送入大模型,供大模型搜索答案。
5.3 RAG三大好处
- 减少大模型的幻觉;
- 为大模型提供最新的知识,帮助大模型生成质量更高的答案;
- 相较于模型微调,效率更高 、成本更低。
5.4 RAG工作流程
5.4.1 基础概念扫盲
5.4.1.1 向量嵌入
向量嵌入(Vector Embeddings):将复杂数据(如:图像、文本、音频等)转换为数值向量的过程和结果。向量通常是高维的数字数组,向量中可以体现数据间的语义信息,语义相近的数据向量值接近,在向量空间中距离更近。
例如,给定三个词Cat、kitty、Apple,将这三个词转换为向量,可以看到,语义相近的Cat、kitty向量值比较接近,而Apple与其他词值相差较大,体现在向量空间中,语义相近的词距离更近。

5.4.1.2 嵌入模型
嵌入模型(Embedding Model):将复杂数据(如:词语、句子或文档)等转换为向量的技术。

5.4.1.3 向量数据库
向量数据库(Vector Database):用于存储和检索高维向量数据的数据库,处理与相似性搜索相关的任务,通过语义来搜索。可作为AI的长期记忆库。
向量数据库与传统数据库区别如下:
| 向量数据库 | 关系数据库 | |
|---|---|---|
| 数据类型 | 存储高维向量数据 | 结构化数据 |
| 查询方式 | 相似性搜索 | 精确匹配和范围查询 |
| 应用场景 | AI相关 | 管理系统等 |
| 代表数据库 | Milvus、Elasticsearch等 | MySQL、Oracle等 |
5.4.1.4 相似性搜索
相似性搜索(Similarity Search):利用向量空间中对象间的接近程度来识别和检索相似的对象,这种基于相似度检索的方法,就是相似性搜索。

5.4.2 RAG工作流程详解
总体流程可分为四步;
-
构建外部知识库:针对知识库中各类格式的文档(如:PDF、Word等)进行处理。对知识库中的文档进行分割(
Split),将分割后的文本块(Text Chunk)利用嵌入模型转为嵌入向量,存储到向量数据库中。文档分割的质量决定了检索的准确性和生成模型的效果。
-
检索(Retreive): 将用户输入的问题利用嵌入模型转换为向量,到向量数据库中进行相似性搜索,找到相似度最大的向量,输出为上下文(
Context)。 -
增强(Augment):上下文与用户问题结合作为提示词(
Prompt)送入大模型。 -
生成(Generation):大模型根据提示词(
Prompt)生成回答,生成的回答返回给用户。

6、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


7、为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


8、大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

922

被折叠的 条评论
为什么被折叠?



