你真的看懂DeepSeekV3.2了吗?别再“走马观花”!这篇「超详细」的深度拆解,教你如何像“老外”一样做技术考古!

ChatGPT三岁生日这一天,硅谷热议的新模型来自DeepSeek

准确说是两款开源模型——DeepSeek-V3.2DeepSeek-V3.2-Speciale

这俩模型火到什么程度呢?

有网友表示,在去圣地亚哥的(疑似赶场NeurIPS 2025)航班上,有30%的乘客都在对着DeepSeek的PDF两眼冒光。

而上周嘲讽DeepSeek “昙花一现”的推特更是在发布的当晚被刷到了500万浏览。

除了普通网友,奥特曼也是急急急急:不仅启动红色警报,还临时推迟了在ChatGPT上投放广告的计划。

与此同时,那一头的谷歌也没被放过。

网友直接 “灵魂喊话” 谷歌Gemini团队:别睡了,DeepSeek回来了。

这是怎么一回事?

闭源精锐?打的就是闭源精锐!

总的来说,DeepSeek-V3.2模型在智能体评测中达到了当前开源模型的最高水平,大幅缩小了开源模型与顶尖闭源模型的差距,并宣告了闭源落后开源的结束。

其中,标准版DeepSeek-V3.2在推理测试中,达到了GPT-5的水平,仅略低于Gemini-3.0-Pro。

而“特别版”DeepSeek-V3.2-Speciale不仅全方位超越了GPT-5,还能在主流推理任务中和Gemini-3.0-Pro掰掰手腕。

此外,V3.2-Special还拿下了IMO、CMO、ICPC及IOI的金牌,并在ICPC和IOI上达到了人类选手第二名与第十名的水平。

这不仅击碎了开源模型落后闭源模型半年的质疑,又顺便给硅谷的闭源AI公司好好上了一波压力。

而且,这还不是V4/R2。

换句话说,大菜还没上呢,光凉菜就已经让硅谷吃饱了。

对于DeepSeek-V3.2这次的成绩,DeepSeek研究院苟志斌(Zhibin Gou)在推特上给出了相当直觉性的解答:

强化学习在长上下文长度下也能持续扩展。

为了理解这句话,我们简要地回顾一下论文。

简单来说,DeepSeek-V3.2其实干了这么几件事:

首先,利用DSA稀疏注意力解决了长上下文的效率问题,为后续的长序列强化学习打下了计算基础。

接下来,通过引入可扩展的RL,并投入超过预训练成本10%的算力进行后训练,大幅提升模型的通用推理和智能体能力。

最后,DeepSeek-V3.2-Speciale版本为了探索推理能力的极限,特意放宽了RL的长度限制,允许模型生成极长的“思维链”,迫使模型通过大量的Token生成来进行深度的自我修正和探索。

这也就是说,通过长思维链让模型思考更多,通过自我修正探索让模型思考更久,进而解锁更强的推理能力。

由此,模型就能在不增加预训练规模的情况下,通过极长的思考(消耗更多token)过程实现性能的飞跃。

而上面的实验结果,恰恰证明了这套“在超长上下文下持续扩展强化学习”路线的正确性。

正如苟志斌所说:

如果说Gemini-3证明了:预训练可以持续扩展,那么DeepSeek-V3.2-Speciale 则证明了:强化学习在长上下文长度下也能持续扩展。

我们花了一年时间把 DeepSeek-V3 逼到极限。得到的教训是:

后训练阶段的瓶颈,不是等“更好的底座模型”来解决,而是靠方法和数据本身的精炼(refine)来解决。

换句话说,如果说Gemini-3 靠“堆知识(预训练)”赢得了上半场,那么DeepSeek-V3.2-Speciale则通过“堆思考(长上下文RL)”赢回了下半场。

此外,对于大模型已经撞到天花板了的论调,他表示:

预训练能scaling,RL也能scaling,context也能scaling,所有维度都还在上涨。

这表明RL不仅有效,还能通过scaling(更大 batch、更长context、更丰富任务)获得巨额收益

同时,在论文中,也有网友发现了为什么DeepSeek-V3.2在HLE和GPQA 等知识基准测试中表现稍逊:

因为计算资源有限!而单靠强化学习是无法达到这样的水平的。

换句话说,DeepSeek与顶尖模型的差距已经不是技术问题,而是经济问题

只要卡够,好的开源不比闭源差!

想到会便宜,没想到会便宜这么多

除了性能上持平顶尖闭源模型外,DeepSeek-V3.2系列这次也着实让大家见识到了“智能便宜到不用计费”。

如果从百万token输出成本来看,DeepSeek-V3.2比GPT-5便宜近24倍,比Gemini 3 Pro,便宜近29倍。

而随着输出token个数的增加,这个差距最高可拉大到43倍

这是什么概念呢?就好比你让大模型一次性“写”出一套《三体》三部曲,用GPT-5你大概需要八百块,Gemini 3 Pro需要一千块。

用DeepSeekV3.2只需要差不多35块钱!

所以,性能差不多,价格却能差出几十倍。该选哪边,答案不用多说了吧?

对此,有网友表示,DeepSeek-V3.2这一经济实惠的开源模型正在挑战Gemini3.0 Pro。

而另一头OpenAI昂贵的订阅费,瞬间就不顺眼了。

当然,这并不是说DeepSeekV3.2毫无缺点。

正如一位网友指出的,同样解决一个问题,Gemini只需要2万个token,而Speciale则需要花费7.7万个。

(这实际上也是上面长下文RL的trade off)

不过,低廉的价格也在一定程度上弥补了现阶段Speciale版本的弱点。

总的来说,DeepSeek仍旧是更实惠的那个。

除此之外,也许更让硅谷感到头疼的就是DeepSeek-V3.2还可能直接在国产算力(华为、寒武纪)中部署,而这将进一步拉低模型推理的成本。

此前,在发布DeepSeek-V3.2-Exp时,DeepSeek在发布首日就针对华为Ascend硬件和CANN软件栈进行了优化。

这次的DeepSeek-V3.2系列虽然没有明确表示,但大概率也会延续此前的战略。

换句话说,难过可能的不止是谷歌和OpenAI,还有他们的好兄弟——英伟达。

然而,这里的价格还只是模型公司的定价,并非推理的实际成本。

尽管我们无法得知各家模型实际的推理成本,但从DeepSeek的技术报告中可以看到一个清晰趋势:

相较于前一代模型DeepSeek-V3.1-Terminus,DeepSeek-V3.2在最长上下文(128K)场景下,成本降低了**75%83%**左右。

这意味着随着注意力机制与后训练的不断优化,底层推理成本正在持续下探

正如一位网友所总结的那样:

DeepSeek证明了:实现强大的AI,并不一定需要夸张的资本投入。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值