请点击上方蓝字TonyBai订阅公众号!

大家好,我是Tony Bai。
在 AI 的世界里,“越大越好”似乎已经成为一种颠扑不破的信仰。我们见证了参数量从数十亿飙升至万亿,也习惯了将最强大的通用大语言模型(LLM)视为驱动一切 AI 应用的核心引擎。
然而,就在这股追逐“巨无霸”模型的浪潮之巅,全球 AI 硬件的领导者 NVIDIA,其研究部门却发表了一篇重磅论文,提出了一个看似反直觉,却可能重塑行业的颠覆性观点:
AI Agent 的未来,不属于大模型,而属于小模型 (Small Language Models, SLM)。
这不仅仅是一次技术路线的争鸣,更可能预示着 AI Agent 领域一次深刻的架构范式革命。
现状:“大模型单体”的困境
首先,让我们看看当前大多数 AI Agent 的工作模式:它们的核心通常依赖于对少数几个通用 LLM(如 GPT-o3、Claude 4、gemini 2.5 pro 等)的 API 调用。这个 LLM 就像一个无所不能的大脑,负责理解用户意图、进行推理、调用工具、生成代码等所有智能任务。
这种架构虽然在初期能快速验证想法,但其弊端也日益凸显:
成本高昂: 每一次 API 调用都在燃烧真金白银。
延迟不可控: 依赖中心化的云服务,难以满足实时性要求。
功能浪费: 大多数 Agent 子任务(如格式转换、意图识别)其实非常简单、重复,用一个“通才” LLM 去做,无异于“杀鸡用牛刀”。
这种过度依赖单一、强大、通用模型的模式,与软件工程发展史上我们早已熟悉的“单体应用 (Monolith)”何其相似!
NVIDIA 的三大核心论据:为什么是 SLM?
NVIDIA 的论文从三个维度,系统性地论证

最低0.47元/天 解锁文章
1329

被折叠的 条评论
为什么被折叠?



