随着AI的热潮逐渐升温,越来越多的人开始关注和了解AI,但是很多专业的概念和名词却让大家望而却步。于是我希望借着这个专栏,和大家一起聊聊AI,共同探讨AI相关的知识。今天这篇文章是系列的第一篇,先向大家介绍AI相关最热门的8个关键概念。
01. AGI(通用人工智能)
AGI全称是Artificial general intelligence,中文含义是通用人工智能,是指人工智能达到的一种智能形态:像人类一样去思考问题、解决问题,表现出智能的行为,并且不局限于特定领域。 简单来说,AGI具备比较广泛的认知能力,像人类一样能够适应环境并且自主学习,做人类能够执行的任务。所以AGI具备以下特点:
- 通用性: 要能够“触类旁通”。 AGI不仅仅局限于某个特定的领域,而是像人类一样,既可以进行复杂的数学计算,又可以吟诗作对,甚至创作音乐
- 自主性: 要能够独立思考,自主决策。 AGI能够理解任务目标,并且根据环境主动拆解任务,并完成执行
- 适应性和学习能力: 这是AGI实现“通用性”和“自主性”的基础,AGI具备强大的学习能力,能从经验中学习,不断更新和改进自己的知识库
- 理解与推理能力: 要能够真正理解信息,包括文字、音频、视频等多模态信息。不仅要了解表面含义,更要根据语境、人物关系看出隐含信息(例如讽刺),分析出问题本质,给出解决方案
我的理解是,AGI有点类似于具备人类意识的机器人。
02. AIGC(人工智能生成的内容)
AIGC全称是Artificial Intelligence Generated Content,意思是“由人工智能生成的内容”。人工智能通过各类算法模型,生成包括文本、图片、视频、代码、对话等各种形式的内容。
对应AIGC的概念,应用于该领域的 AI 也被称为Generative AI(生成式 AI),简称 Gen-AI。例如ChatGPT可以写文章,Sora可以生成视频,这些都是AIGC的范畴,目前市场上大家熟悉的如“豆包”、“Kimi”等都是AIGC的垂直类应用。
例如,豆包写出来的内容就叫AIGC,豆包就是AIGC的垂直类应用
03. LM(大模型)
LM全称Large Models,即大模型。这是指参数量巨大(通常10亿+)的深度学习模型,泛指所有类型的大型机器学习模型。大模型可以覆盖多模态的任务,包括文本、图像、音频和视频等,而不仅仅局限于处理自然语言(NLP,Natural language processing),代表的模型是Google的Gemini 2.5。
04. LLM(大语言模型)
LLM全称是Large Language Models,即大语言模型,是专门用于处理自然语言(NLP)任务的大型机器学习模型,一般用来理解和生成人类语言。代表的模型是ChatGPT4,主要聚焦的应用领域包括聊天机器人、文本生成、问答系统、文本摘要、翻译等。
05. Prompt(提示词)-- 高效对话大模型
Prompt的学名叫做提示词,是用来使用LLM的利器。LLM的基础使用很简单,就是用户输入自己的问题(prompt),LLM经过一系列运行,给出结果(学名叫做Output,也就是输出)。
LLM的基础使用范式
这一小节,其实讲的就是如何与LLM进行有效的对话,这是Prompt的精髓。只有确保模型完全理解我们的诉求,它才能给我们预期的结果。通过优化这种对话的方式,可以有效地提升模型输出的结果,让大模型更加“懂我们所想”。
下面我们举一个例子,来看看如何与LLM高效对话: 假设你在住酒店期间因为洗手间太滑而摔倒,想要写一封邮件给酒店经理表达愤怒,并寻求补偿,于是你尝试使用大模型来帮你写邮件(以下模型使用的是2021年的GPT3.5_Trubo,2021年训练生成):
- 第一轮:我向模型诉说了自己的要求,模型正确生成了,可惜的是英文版本,而我住的酒店是中国的酒店;
- 第二轮:于是,我增加了我的诉求:“请你使用中文”。ChatGPT果然给了我中文版本,但是这个版本我觉得太啰嗦,而且态度不够强硬
- 第三轮:我改了一下,增加了要求“表达我很愤怒”,并且“字数在100字以内”
嗯,第三轮言简意赅,基本满足了我的诉求,于是我就使用了这个模板。其实这种通过不断优化Prompt,来提升大模型响应质量的方式,官方名称叫做Prompt Engineering(提示词工程),这是一门挺大的学问,有很多的实践方案(改天专门写一篇来分享)。 但是一般来说,一个良好的Prompt应该有以下的特点:
1. 身份任务设定说明: 这是为了限定模型的职责,让它知道自己身份是什么,回答问题要符合自己的身份要求;不要僭越,也不要妄自菲薄
2. 具体的要求,越清晰越好: 例如以上例子中 “用中文”、“表达我很愤怒”
3. 示例few-shots: 给出一些输出的例子,实际上就是给大模型打个样,让它快速理解你给它的任务和输出应该是什么样
4. 输出规范和说明: 例如以上例子中“100个字以内”
当然在实际优化的时候,也不要照本宣科,对于简单的问题,只要模型回答的不错,不需要过分追求准确度。学好Prompt优化很重要,学好了Prompt优化,基本上使用市场上的AI 工具就不成问题了,据统计,目前从事AI工作的工作者,有较大比例在从事Prompt Engineering相关的工作。
06. RAG(检索增强生成)-- 大模型的知识索引
RAG出现的背景
如果我已经把提示词优化的足够好了,模型也完全能够理解我的诉求了,那是不是就能解决所有问题了?
不,还没有那么简单,有些时候大模型显得很“白痴”,回答不了我们认为很简单的一些事情。我们要先理解大模型的工作原理:大模型需要一定的训练数据进行训练,在训练完成后,参数就已经固定,所以大模型本质是一个离线方案(例如刚才在讲到Prompt优化时使用的模型就是较旧版本的GPT-3.5 Turbo,训练数据截至2021年9月。)这意味着 ① 大模型学习的知识是有限的,一些很专业领域的知识它不一定能学习到 ② 大模型对持续发生的事情感知是不强的(尤其是训练完成后发生的事情)
所以我们要帮助大模型去解决它的这两个限制,于是就有了RAG和Function Calling:RAG 是为了解决大模型知识有限的问题,Function Calling是为了解决大模型对新知识的学习问题。
RAG的使用介绍
RAG的英文全称叫做 Retrieval-Augmented Generation,翻译成中文叫做“检索增强生成”,源自于一篇论文
《Retrieval-Augmented Generation for Large Language Models:A Survey》
可以简单的理解,把RAG当做是一个外挂,当大模型对一些知识不太懂的时候,它就会回答错误,所以我们需要提供一些方法帮助模型接触到那部分知识,RAG就是通过提供信息检索来补充离线模型缺失的那部分知识。
LLM的RAG使用范式
07. Function Calling(工具调用)-- 大模型的场外求助
Function calling,翻译成中文叫做“工具调用”,当大模型因为不了解最新知识而无法正确处理时,我们可以给大模型增加一个“外挂”,通过调用工具的方式寻求解决,有点类似于智能问答里面的“场外求助”。
当我问大模型:“今天星期几?” 大模型给我的回答当然是错误的,这显得它很愚蠢。
当我问大模型:“今天天气怎么样?” 大模型给我的回答是不知道,这显得它很不专业。
那么该如何解决这样的问题呢?
刚才有介绍,大模型是离线模型,它并不知道今天的具体日期,自然也无法了解天气的情况,因此需要让它寻求“场外帮助”,先通过**“日历工具”确定今天是星期几,然后再查询“天气预报工具”**确认今天的天气情况,于是变成了下面这样:
LLM的Function Calling使用范式
Function Calling就是指在遇到特定问题时,会选择正确的工具来帮助它来解决问题,这其实已经把大模型从语言模型向更先进的“智能体”去进化了。
08. AI Agent(智能体)-- 大模型的智能表达
前面章节介绍了如何使用Prompt高效与模型对话,如何通过RAG的方式给模型加知识索引,以及教会大模型学会使用工具。这个时候大模型还停留在可以对话的阶段,一问一答,是被动的执行任务;那么如何能够让大模型更“智能”一点,甚至能够主动地执行一些任务呢? – 于是,智能体就出现了。
从定义上来说,智能体是能够感知环境、制定计划、执行任务和自主学习的系统。大模型最开始使用的场景是问答,这是一种被动的任务执行(比如ChatGPT/豆包等),但是智能体的提出,是要从被动的问答转向主动的任务执行。AI Agent其实并非是一项技术,而是通过整合LLM的能力,针对特定场景的再次封装,去执行特定的任务。
AI Agent架构,包括Memory(记忆模块)、Planning(规划模块)、Tools(工具模块)和Action(执行模块)。
OpenAI应用人工智能研究负责人Lilian Weng设计的通用的AI Agent架构
举个例子,加入我们想做一个自动点咖啡的智能体,那么我们应该这么设计:
- Prompt设计:设置提示词,识别用户的输入,帮助决策模型去正确识别用户的诉求。 可以通过设定角色任务、要求、例子(few-shots)、输出规范等方式来做
- 决策模型(市场上的OpenAI、DeepSeek、Qween都可以):结合用户的对话和上下文,决策该使用哪些工具,以及应该选择哪些参数去调用工具
- 工具Function Calling:直接通过API调用的方式,调用对应的咖啡品牌下单;如例子中用户要点星巴克,那么工具就应该选择星巴克的下单服务
- 表达模型:根据最终决策模型的结果,给到用户结果
自动咖啡点单的AI Agent
实际上,真正企业级的AI Agent设计远比这要复杂,考虑到实际的场景的多样性和复杂性,一般由多个模型、甚至多个子Agent一起去解决问题,但是万变不离其宗,原理和思路是一致的。
09. 结束语
AI 不应该是高高在上的尖端技术,而应该是普惠的大众服务;就像90年代的互联网一样,当时了解的人寥寥无几,现在的我们无法想象没有互联网的生活。 AI时代已经到来,让我们开始学习和拥抱AI吧!
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01 教学内容
-
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
-
大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03 入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04 视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05 行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
06 90+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发