2025年AI行业发展全景图:DeepSeek、GPT-5、Gemini等大模型事件解析

2025年AI行业呈现百花齐放格局,从DeepSeek R1以低成本实现顶尖性能的开源突破,到OpenAI发布多模态推理的GPT-5,再到Google的Gemini 3 Pro和Nanobanana系列崛起。文章梳理了17个核心事件,展现AI从OpenAI独秀到全球竞争的演变,涵盖视频生成、Agent产品、开源与闭源模型竞争等关键发展方向,见证大模型技术突破与应用创新。


2022年 11 月 30 日 ChatGPT 横空出世,迅速火爆全球,拉开了 AI 时代的序幕。2023 年 OpenAI 再次给世界一震撼,重磅发布多模态模型 GPT-4。而到了 2024 年 OpenAI 仍然一枝独秀,把谷歌按在地上摩擦,OpenAI 又一次给 AI 的发展带来了两个非常重要的新方向:一个是视频生成,一个是推理范式,前者的代表是 Sora,而后者的代表则是 o1 模型。时间来到 2025 年,独领风骚了 3 年,OpenAI 终于不再一枝独秀,迎来众多挑战者,全球 AI 可以说是呈现百花齐放的状态,有 Google 和 Anthropic 等顶级闭源模型的分庭抗礼,有 DeepSeek、Qwen、Kimi、GLM、Minimax、Mistral 等开源模型的崛起,当然也有 Llama 系列开源模型的落寞。

本文将按照时间顺序带你一起回顾一下 2025 年 AI 行业发生的 17 个核心大事件。

DeepSeek R1 火爆全球

2024 年 12 月 6日,OpenAI 重磅发布 o1 系列推理模型,把大模型的发展从仅使用系统 1 思维(快速、自动、直观、容易出错)发展到系统 2 思维(缓慢、深思熟虑、有意识、可靠)。而就在 2025 年 1 月 20 日,中国 AI 创业公司 DeepSeek(深度求索)发布了其最新一代开源模型 DeepSeek R1,该模型和 o1 一样是个推理模型,在基准测试中其表现与 OpenAI 的 o1 模型相当,但价格却显著低于 o1(大概是其 1/30)。这一事件迅速在全球科技界引发了海啸般的反应,被西方媒体和战略分析师称为 AI 领域的“斯普特尼克时刻”(Sputnik Moment)。DeepSeek R1 不仅在性能上紧追 OpenAI 的顶尖闭源模型,更重要的是,它打破了关于大模型训练成本的固有认知。

DeepSeek R1 的核心突破在于其极致的“推理-成本”效率比。在过去几年中,行业普遍遵循“Scaling Laws”(缩放定律),即通过指数级增加算力和数据量来换取性能提升。然而,DeepSeek R1 的技术报告显示,其训练成本仅为 600 万美元左右,而同期美国科技巨头(如 Google、OpenAI)训练同级别模型的成本往往高达 1 亿美元甚至 10 亿美元量级 。

DeepSeek R1 的成功主要得益于以下几点技术创新:

  • 混合专家模型(MoE)的极致优化:通过改进的路由算法,大幅提升了参数激活的效率,使得模型在保持庞大参数规模的同时,推理计算量显著降低。
  • 强化学习与思维链(CoT)的深度融合:DeepSeek 利用 DeepSeek V3 结合其他开源模型(如 Qwen、Llama)生成的 80 万条思维链数据进行强化学习微调,这种“蒸馏”策略极大地提升了模型的推理能力,而无需从头进行昂贵的预训练 。
  • MIT 协议的开源策略:完全开放的商用协议使得 R1 迅速成为全球开发者的首选基座。仅在发布后的一个月内,HuggingFace 上基于 DeepSeek R1 的衍生模型就超过了 90,000 个,这一数字甚至超过了当时最火的开源模型: Meta 的 Llama系列模型。

DeepSeek R1 的发布一周后,DeepSeek App 登顶全球各个国家的App Store榜首,到目前为止 DeepSeek App 的日活在 2500 万左右。DeepSeek 是一个模型即应用的典型代表,没有花一分钱用于用户增长,全部来自于口碑和自传播,反观当时的 Kimi、豆包、Qwen 则不同,花了很多流量费来获得用户,然而收效甚微。DeepSeek R1 的爆火也让 Kimi 团队改变了过去互联网时代投流的增长逻辑,转而把更多钱投到了模型研发以及开源上,后来就像大家知道的那样 Minimax 和智谱也走上了开源之路,中国开源模型正式崛起,到 2025 年底 Minimax 开源的 M2.1、智谱开源的 GLM4.7以及 Kimi 的 K2 模型都曾先后登顶过开源模型榜首,距离美国顶尖闭源模型GPT-5/Claude 4.5/Gemini 3 Pro 越来越近。

字节的豆包 App 在 DeepSeek 爆火之前妥妥的国内第一 AI Appp,结果却因 DeepSeek R1 的爆火而被截胡,屈居第二位,但他们在 2025 年仍然稳扎稳打,不断迭代,除了跟进 OpenAI 的产品路线之外,也做了一些自己的产品创新,在2025 年底豆包宣布日活突破一个亿,也可以说可喜可贺,成为了国内的实至名归的国民级 AI 应用。

西方国家也因 DeepSeek R1 的效率产生了巨大的恐慌,芯片股一夜暴跌,Nvidia 的市值在数日内蒸发了约 5000 亿美元。市场的恐慌逻辑在于:如果 DeepSeek 证明了通过算法优化可以用极低的算力成本达到顶尖性能,那么全球对高端 GPU(如 H100/H200)的无止境需求可能会被重新评估,AI 泡沫论一度甚嚣尘上。但回过头看,这其实是典型的“杰文斯悖论”, DeepSeek R1 不是在缩减市场,而是在降低准入门槛,让更多人以更低的价格可以使用上顶尖的 AI 模型,AI token 消耗量反而变得更多了,而英伟达的 GPU 机器也卖得更多了,甚至想买都买不到。

“星际之门” 计划:5000 亿美元的算力长城

2025 年 1 月 21 日,美国政府联合产业界正式宣布启动 “星际之门”(Stargate)计划 。这是一个由 OpenAI、SoftBank、Oracle、Arm、Microsoft 和 Nvidia 共同组成的超级合资项目,旨在未来四年内在美国本土投资 5000 亿美元,构建前所未有的 AI 基础设施 。

基础设施的物理化挑战 Stargate 计划的核心是一个总功耗高达 10 吉瓦(GW) 的超级数据中心集群,这一数字相当于数个中型国家的发电量总和 。

OpenAI 的第二个 Agent 产品发布:DeepResearch

2025 年2 月 2 日,OpenAI 重磅发布大受知识工作者喜爱的 Agent 产品:DeepResearch。

如果说 ChatGPT 改变了人们获取信息的方式,那么 DeepResearch 则试图彻底重塑知识工作者的生产流程。与之前的“聊天机器人”不同,DeepResearch 被定义为一个全自动的深度研究助手。用户不再需要进行多轮对话引导,只需给出一个模糊的高层指令(例如:“分析 2025 年东南亚光伏市场的竞争格局及政策风险”),DeepResearch 便会自主拆解任务。

在这里插入图片描述

它能够并行调用浏览器访问数百个网页,阅读长达数百页的 PDF 财报和法律文书,并通过内部的 o1 推理模型对由于信息源冲突导致的数据差异进行交叉验证,最终生成一份包含图表、引用来源及深度洞察的万字报告。原本需要人类花费 3-5 天整理的信息,DeepResearch 仅需 5到 10 分钟。

Anthropic 发布编码 Agent:Claude Code

2025 年 2 月 24 日,Anthropic 重磅发布 Claude Code,这是一个深度集成在终端(Terminal)的全栈研发 Agent,其核心能力在于对整个代码仓库(Repo)的全局理解力和自主行动力,它不再需要人类充当“Debug 循环”的一环。它会自己写代码,自己跑代码,自己修 Bug。

从现在看,Claude Code 的发布对 Cursor 带来了有不小的冲击,不少用户退订了 Cursor 的订阅,转到了 Claude Code 上来,据说 Claude Code 为 Anthropic 在 2025 年带来了 10 美金的营收。但 Cursor 也依然非常坚挺,如果你用过 Cursor 就会发现其更新频率极高,几乎每天都在更新和上线,在 AI 时代迭代速度就是护城河,护城河不是一个名词,而是一个动词:不断构建你的护城河。

OpenAI 曾经想买 Curosr 但被拒绝了,转头想买 Windsurf 也因为微软的阻挠被 Google 截胡了,但这笔收购中 Windsurf 创始团队的操作非常不仗义,其 CEO 带着核心团队收了 Google 的钱,拿着 Windsurf 的源代码等核心资产去谷歌重新做了一个编码 IDE: Antigravity,而留剩下的人则惊慌失措,对此一无所知,最后不得不又卖给了 Congnition AI,也算是找到了一个归宿吧。

还有一个小插曲,Claude Code 的创建者 Boris Cherry 和产品负责人 Cat Wu 还曾中间短暂了离职了 Anthropic 入职了 Cursor,短短几周时间就又回到了 Anthropic,也不知道中间发生了什么。

Manus 火爆海内外

2025 年 3 月 5 日,一家在武汉的创业公司蝴蝶效应发布一款 Agent 产品: Manus,该产品能够调度不同的工具解决复杂问题,其在 GAIA 等基准测试中表现出 SOTA 的性能。

该产品一经发布便引发国内外的关注和讨论。国内很多媒体称之为 DeepSeek R1 之后的另一国运级别的创新,但它的创新不是底层模型创新,而是产品和工程创新。如果你仔细研究过 Manus 这个产品,会发现其实它本质其实就是 OpenAI 的 DeepResearch,只是表现形式不同,做个不一定恰当的类比就是 DeepSeek R1 之于 OpenAI o1。今年 7 月份 Manus 团队总部离开武汉,搬去新加坡,受到国内一帮自媒体的批评和指责,当时我还特意写了一篇文章来分析这家公司的底层逻辑:别只盯着 Manus “跑路”,它超前的产品认知更值得关注。有兴趣的话,推荐大家看看。

今年 12 月中旬,Manus 宣布年度经常性收入(ARR)已突破 1 亿美元(上线 8个月后)。消耗总 token 量超过 147万亿 token,创建了超过 8000 万台虚拟计算机。

就在我写这篇文章当天的早会上(2025.12.30),Meta 以数十亿美元收购 Manus 的公司蝴蝶效应。这是 Meta 成立以来第三大收购,花费仅次于 WhatsApp 和 Scale AI。收购完成后,蝴蝶效应公司将保持独立运作,创始人肖弘出任 Meta 副总裁。这里我们也恭喜 Manus 团队成功上岸。

配图来自于今年7月 Manus 团队对谈 YouTube 联合创始人陈士骏。

左起依次为:季逸超(Manus 联合创始人、首席科学家)、肖弘(Manus 创始人兼 CEO)、陈士骏、张涛(Manus 联合创始人,产品负责人)

GPT-4o 原生图像生成因吉卜力画风火爆全球

2025 年 3 月 25 日,OpenAI 发布 GPT-4o 原生图像生成功能,因其效果拔群,尤其是可以生成日本动画大师宫崎骏的公司吉卜力所制作的动画风的图像,在推特上造成了病毒式的传播,一小时内 ChatGPT 新增 100 万用户,火爆程度堪比上一波的 DeepSeek R1 发布时的盛况。

当时我也写了一篇 GPT-4o 的使用教程:GPT-4o 引爆全球吉卜力风格生图潮流!附10+玩法与教程。如果你感兴趣可以去我的博客阅读。

Llama 4 的“落寞”:开源王者的尴尬处境

时间来到 2025 年4 月 5 日,备受期待的 Meta Llama 4 终于发布。然而,与其前作 Llama 3 发布时的全网狂欢不同,Llama 4 的登场显得有些“生不逢时”。

扎克伯格坚持了大模型“算力暴力美学”的路线。Llama 4 405B 及其更大版本的模型在各项基准测试中确实表现优异,甚至在某些多模态指标上超越了 GPT-4.5。但市场对此反应冷淡,原因主要归结于 DeepSeek R1 在年初引发的那场“效率地震”以及操控基准测试。

Llama 4 遭遇了几重困境:

  • 架构的滞后性:在 DeepSeek R1 证明了 MoE(混合专家)架构结合极致优化的推理管道可以用极低的 VRAM(显存)运行高性能模型时,Llama 4 依然主要依赖庞大的稠密(Dense)架构。这导致 Llama 4 的部署成本极高,中小企业根本跑不动,而大企业则更倾向于自己蒸馏 DeepSeek 或使用闭源 API。
  • 社区的分流:开源社区的热情已经转移。开发者们发现,基于 DeepSeek V3/R1 进行微调(Fine-tuning)的性价比远高于 Llama 4。HuggingFace 上,针对 Llama 4 的魔改模型数量增长缓慢,而 DeepSeek 生态却如日中天。
  • 实测表现不如预期:虽然官方指标上 Llama 4 还可以,但网友使用后的实际表现落差却很大,有网友指出其操控了基准测试,结果就是让社区由热切期待到普遍失望的快速转变。

OpenAI 发布 o3 与 Codex CLI

2025年 4月16日,OpenAI 正式发布 o3 系列推理模型和开源编码 Agent Codex CLI。OpenAI o1(2024 年9 月12 日)是 RLVR (基于可验证奖励的强化学习)模型的首次演示,o1 的核心创新是 Test-time Compute(测试时计算)。当你提问时,模型会强制暂停,展开一段漫长的思维链(Chain of Thought, CoT),尝试多种路径,自我纠错,然后给出答案。

但o3的发布是一个明显的拐点,你能直观地感受到这种差异,RLVR 不仅被用来优化“下一个词”,还被用来优化“下一个动作”。这就是 Agent,模型开始对 Tool Use(工具使用) 和 Environment Interaction(环境交互) 有了掌控力。

有人说 o3 应该直接叫 GPT-5,因为 GPT-4 到 o3 的能力提升和 GPT-3.5 到 GPT-4 的提升一样大。但 OpenAI 管理层并没有这样做,而是选择把 o3.1 作为 GPT-5 发布,结果可想而知。

开源模型 Qwen3 发布

2025年 4月19日阿里巴巴千问团队开源 Qwen3 系列模型。继年初 DeepSeek R1拉近了开源与闭源模型的差距后,Qwen3 将这场战役推向了高潮。其旗舰模型 Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,展现出与 DeepSeek-R1、o1、o3-mini、Grok-3 及 Gemini-2.5-Pro 等顶级模型极具竞争力的结果。

OpenAI 云端 Agent 产品 Codex 发布

2025 年 5 月 16 日,OpenAI 推出全新 Codex,一款云端 AI 软件工程代理。基于 codex-1 模型,它能并行处理编码、修复Bug、提PR等任务。

就像OpenAI 联合创始人,特斯拉前 AI 总监 Andrej Karpathy 在 2025 2025 LLM 年度回顾所说的那样:OpenAI 在这点上搞错了,他们将 codex / agent 的工作重点放在了从 ChatGPT 编排的云端容器部署上,而不是 localhost。虽然在云端运行的智能体集群感觉像是“AGI 的终局”,但我们生活在一个能力参差不齐的中间过渡期和缓慢起飞的世界中,因此将智能体直接运行在计算机上,与开发人员及其特定设置携手合作更有意义。Claude Code 掌握了正确的优先级顺序,并将其打包成一种美观、极简、引人注目的 CLI(命令行界面)形式,这改变了 AI 的样子——它不仅仅是一个像 Google 那样你去访问的网站,它是一个“活”在你电脑里的小精灵/幽灵。这是一种全新的、独特的与 AI 交互的范式。

从现在看,OpenAI 显然搞错了顺序,直到 2025 年 9 月份 GPT-5 发布的时候他们才开始频繁的迭代 Codex CLI,当然从目前的结果上看还不错,现在 Codex CLI 和 Claude Code 以及 Cursor 成为程序员和产品经理最喜欢的三个编码工具。

谷歌发布 Veo3

2025年 5月20日,谷歌在Google I/O 2025大会上发布视频生成模型 Veo 3,它是全球第一个实现了音视频直出的视频生成模型,也就是说可生成带有音频的视频片段(例如街头的汽车噪音、鸟鸣、人物对话等)。就如 Google DeepMind 首席执行官德 Demis Hassabis 所说:我们正在“走出视频生成的无声时代”。

反观 OpenAI 的 Sora 自去年首秀以来风光不再,直到2025 年的 10 月 OpenAI 才发布 Sora 2,补齐该能力的缺失。另外有一点值得说,现在在 Google lead 视频生成项目的人之前是 OpenAI Sora 的联合负责人之一,离开的原因据说是 GPU 资源分配的问题,OpenAI 把核心力量投入到了模型智能上面,所以才有了现在的 O 系列的推理模型,而 Google 这边给出的条件是什么都管够,人才给、GPU 也给,这效果就来了。不仅仅如此,这也为后来的 Nanobanana 以及 Nanobanana pro的 两次爆火埋下的伏笔。

Google Genie 3:交互式世界模型的诞生

2025 年 8 月 4 日,Google DeepMind 发布了 Genie 3。Genie 3 不仅仅是一个视频生成模型,它是一个“交互式世界模型”(Interactive World Model)。

用户不仅可以生成 3D 环境,还可以像玩游戏一样在其中进行实时交互(如驾驶、飞行)。DeepMind CEO 哈萨比斯明确表示,Genie 3 的目标是训练 AI 智能体(Agents)在虚拟世界中学习物理规律和因果关系,从而最终迁移到现实世界。这是通往具身智能(Embodied AI)的关键一步 。

GPT-5:多模态推理的“博士级”表现

2025 年 8 月 8日,OpenAI 正式推出了备受期待的 GPT-5 。其核心能力主要有以下几个:

  1. GPT-5 在编码、数学、写作、健康和视觉感知等多个领域成为 SOTA。
  2. GPT-5 本质是个路由模型,系统自动判断并选择最合适的模型,实现了速度(GPT-5-Instant)与深度思考(GPT-5-Thinking)的统一。
  3. GPT-5 在减少“幻觉”、遵循指令、减少谄媚方面取得了重大进展,使其在写作、编码和健康咨询等核心应用场景中变得更加有用和可靠。

谷歌 Nanobanana 图像模型发布

2025年 8月 26日,Google 发布图像生成模型 Gemini 2.5 Flash Image,又名 Nanobanana。该模型还在 LMArena 上测试时就引起了社区的极大关注和热捧,上线后基本霸榜图像编辑和生成模型的榜单了,特别是图像编辑领域更是大幅领先。

其核心能力主要有以下几个:

  1. 图像一致性保持的能力非常强大。它可以将同一个角色放置在不同的环境中,在新场景中从多个角度展示单个产品,同时保留主体。
  2. 基于自然语言描述的图像编辑。
  3. 融合了 Gemini 的世界知识。
  4. 它能理解和融合多个输入图像。

从这些核心能力你就可以看出它为什么能火爆全球,OpenAI GPT-4o 原生生图能力火爆全球是因为娱乐至死,而 Google 的Nanobanana 的火爆显然是因为带来了生产力的巨大提升。

OpenAI 发布 Sora2

2025年10月1日 OpenAI 发布 Sora2,开始仅上线美区 iOS端 APP,且是邀请制。上线3天后便登顶 AppStore 榜首。Sora2 不是个纯粹的模型,而是一个产品。Veo3 基本做到了 8s 左右视频生成能力的上限了,Sora 2很难做到100 倍的领先,所以这场仗很难打,而 OpenAI 团队另辟蹊径搞了一个社交裂变的办法,就是让用户可以上传一段简短的视频,将他们的肖像(外观+声音)插入到任何 Sora 生成的场景中。

有人说 Sora2 是昙花一现,月留存仅有8%远远低于 TikTok,但内容的积累需要时间,如果你现在去 Sora2上看看,会发现上面的内容要比刚上线时候丰富的多,你也能刷一会了,甚至可能会会用它来制作好玩的视频,亦或是把制作的内容发布到其他社交平台上。至于 Sora 2 到底行不行我们先别着急下结论,让子弹再飞一会。

Google 重磅发布 Gemini 3 Pro:王者归来

2025年 11月18号,谷歌正式发布全球最强模型 Gemini 3.0 Pro,它在所有主要的 AI 基准测试中都显著优于 2.5 Pro,且基本都处于榜首的位置,包括视觉能力、数学、编程、Agent、视频理解等等。但一个指标稍微弱于Claude Sonnet 4.5 (77.2%)和 GPT-5.1 (76.3%)就是 SWE-Bench Verified,这个指标上得分 76.2%,这个指标特别重要,特别是对 Vibe Coding。

Gemini 3.0 Pro 的成功很大来源于预训练(Google 布局 10 年的 TPU 在其中起了非常重要的作用,量大管饱),说明 scaling law 依然有效。而 OpenAI 的模型自从 GPT-4.5 模型之后在预训练投入不足,大部分精力投入到了后训练以及强化学习。为了应对 Gemini 3.0 Pro,OpenAI 放出了 GPT-5.2,该模型既融合了 GPT-4.5 的预训练也融合了 o 系列模型的后训练能力,从实际体验上来看,和 Gemini 3.0 Pro 能力相当,但 Google 已经王者归来了,再也不是那个任由 OpenAI 在地上摩擦的那个雄狮了。

Google 发布 Nanobanana Pro

2025年 11月 20日,谷歌发布 Nanobanana Pro。与注重速度和性价比的 Flash 版本不同,Pro 版本引入了“思考”能力、搜索(Search Grounding)以及高保真 4K 输出等高级功能。该模型的三大核心优势在于:

  1. 具备思考能力:能够理解和推理复杂的提示词。
  2. 搜索溯源(Search Grounding):利用 Google Search 获取实时数据以生成准确的图像。
  3. 高质量输出:支持高达 4K 分辨率的图像生成。

相对于 nanobanana ,这次 Pro 的生图模型自带思考能力,对的,你没看错,一个生图模型也具备了思考的能力,这是生成模型的一个新的范式。之前的生图模型都是在前面引入一个文本模型来优化用户输入的 prompt 以达到最佳的生图效果,而现在有了这个 Pro 模型后这种pipeline不需要了。这个 Pro 模型还有一个给生产力带来极大提升的能力:图上文字生成的准确率已接近 100%。这对职场和创作者来说简直是质的飞跃,制作PPT、漫画、绘本从未如此简单。

好的东西缺点就是贵,nanobanana一张图大概2毛钱,而 nanobanana Pro 一张图要接近1块钱,接近4-5倍的价格。在国内,豆包生图基本是目前 TOP1 的水平,和 nanobanana 水平相当,但距离 nanobanana Pro 的差距估计在3-6个月的差距。

最后

2025 年 AI 行业核心大事件的复盘就到这里了。

如果你想要对 2025 年的所有的核心事件(包括一些细节,比如 OpenAI 的产品功能、Anthropic 的模型发布、开源模型的发布等等)进行速览,我也整理了一张全景图供你查看,你也可以直接去这个我一直维护的 AI 大事件追踪网站(fishersama.com)查看详情。

今天是 2025 年最后一天班,也提前祝大家元旦快乐,在 2026 年更健康、更从容、更有收获。

​最后

我在一线科技企业深耕十二载,见证过太多因技术更迭而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到优快云的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​
在这里插入图片描述

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。

img
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

在这里插入图片描述

​​
在这里插入图片描述

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点
在这里插入图片描述

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

在这里插入图片描述

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

在这里插入图片描述

④各大厂大模型面试题目详解

在这里插入图片描述

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​在这里插入图片描述
在这里插入图片描述

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值