智能不是更强的算力,而是更广的触达。
一、从「算力崇拜」到「连接觉醒」
在过去七年里,AI 世界几乎被一种单一叙事主导:更大、更强、更聪明。
从 2017 年的 Transformer,到 GPT、PaLM、Claude、Gemini、DeepSeek——每一代模型都像一次“参数的暴力美学”,在规模、数据和算力上层层叠加。
训练集群越堆越大,推理延迟越低,成本越高。所有人都在追求速度与能力的极限,仿佛那就是智能的全部真相。
但到了 2024 年,我们突然发现:
轻量模型越来越快,却没有让智能真正突破。
Mistral、Phi-3、DeepSeek-V2 带来了“推理自由”,但它们依然像被困在实验室的天才——能理解、能生成、能推理,却无法触摸现实世界。
换句话说,它们能“想”,但不能“做”。
这正是智能的下一道门槛。
二、2017~2023:从“处理信息”到“堆叠规模”的时代
Transformer 的意义,远不止是一个架构,它是人类第一次在机器中实现了长程思考。
在 RNN 时代,模型像记性不好的秘书,只能记住刚发生的几件事;而 Transformer 能“同时看全盘”,理解上下文中每个词的关系,这让语言模型真正学会了“理解”。
于是,AI 行业开启了堆叠的狂欢:
-
**2018–2019:**BERT 与 GPT-2 的成功,让“预训练 + 微调”成为范式;
-
**2020–2021:**GPT-3 的幂律曲线,催生出“参数规模决定智能”的信仰;
-
**2022–2023:**RLHF、SFT、Instruct 模式兴起,模型学会了迎合人类意图。
这几年,我们让模型更像人思考,却没有让它像人那样行动

最低0.47元/天 解锁文章


被折叠的 条评论
为什么被折叠?



