目录
🎬 攻城狮7号:个人主页
🔥 个人专栏:《AI前沿技术要闻》
⛺️ 君子慎独!
🌈 大家好,欢迎来访我的博客!
⛳️ 此篇文章主要介绍 大模型五年内或被抛弃?
📚 本期文章收录在《AI前沿技术要闻》,大家有兴趣可以自行查看!
⛺️ 欢迎各位 ✔️ 点赞 👍 收藏 ⭐留言 📝!
前言
在今天,几乎所有人都在谈论大语言模型(LLM)。它们能写诗、能编程、能绘画,似乎无所不能,成为了人工智能领域最耀眼的明星。然而,就在这股热潮的顶峰,一些行业内最顶尖的科学家,如"强化学习之父"理查德·萨顿(Richard Sutton)和 Meta 首席科学家杨立昆(Yann LeCun),却不约而同地站出来"泼冷水"。
他们的观点惊人地一致:今天我们所熟知的大模型,很可能只是"一时之势",在未来五年内,它们或许就不再是 AI 发展的最前沿,甚至可能被新的架构范式所取代。
这听起来有些危言耸听,但当我们深入了解他们的逻辑后,会发现这并非空穴来风,而是对 AI 未来发展路径的一次深刻反思。
一、大模型的"原罪":它真的"懂"世界吗?
要理解为什么大佬们不看好大模型的长远未来,我们首先要明白当前大模型的工作原理和其固有的局限性。
今天所有的大模型,其本质上是一个极其复杂的"文字接龙"或"像素填充"高手。它们通过"阅读"海量的人类数据(互联网上几乎所有的文本和图片),学会了语言和图像的统计规律。当你问它一个问题,它并不是在"理解"后"思考"答案,而是在其庞大的概率模型中,计算出最有可能的下一个词或下一块像素是什么。
这种模式带来了惊人的能力,但也带来了几个无法回避的"原罪":
(1)缺乏对物理世界的真实理解:大模型生活在数字世界里,它不知道"杯子掉在地上会碎",不知道"推一个物体需要力气"。它知道这些词语如何搭配,但它没有物理常识。杨立昆举过一个例子:一只猫对物理世界的理解,都远远超过我们今天最强的 AI。
(2)没有真正的推理和规划能力:正因为它不理解世界,所以它很难进行复杂的、多步骤的逻辑推理和规划。你可以让它写一段代码,但很难让它规划并执行一个"打扫房间"的机器人任务,因为后者需要对空间、物体、行为后果有一系列连贯的理解。
(3)严重依赖人类数据,且数据即将耗尽:大模型的养料是人类创造的高质量数据。但这个"矿藏"是有限的,有研究表明,高质量的文本数据可能在未来几年内就会被"吃光"。当 AI 的学习速度超过人类的知识创造速度时,这条路就走到了尽头。
(4)无法自主学习和探索:大模型是一个被动的学习者。你喂给它什么,它就学什么。它无法像婴儿一样,通过主动触摸、观察、尝试,去探索和学习这个世界未知的规律。
理查德·萨顿在他的著名文章《苦涩的教训》(The Bitter Lesson)中一针见血地指出:AI 研究领域一个反复被验证的"教训"就是,研究人员总是试图将自己对"智能"的理解(比如逻辑规则、知识图谱)硬塞给 AI,但最终,那些最简单、最通用的,并且能够随着计算能力增强而不断扩展的方法,才是最终胜出的方法。
而当前的大模型,在某种程度上,依然是在依赖人类知识的"灌输",而非自主学习。
二、未来的方向:从"人机交互"到"机环交互"
既然大模型有这么多局限,那么未来的路该怎么走?萨顿和立昆给出了一个共同的方向:让 AI 走出数字世界,真正与物理环境互动,通过直接的经验去学习。
这个理念可以概括为从"人机交互"(Human-Computer Interaction)到"机环交互"(Machine-Environment Interaction)的转变。
人机交互:就像我们现在用大模型一样,是"人"提出问题或指令,"机器"在已有的数据中寻找答案。AI 的知识边界,被人类数据牢牢锁死。
机环交互:AI(机器)不再仅仅依赖人类,而是可以直接与"环境"(Environment)互动。这里的环境可以是真实的物理世界,也可以是复杂的模拟环境。它通过传感器感知环境,通过执行器操作环境,在一次次的"试错"中,像人一样积累经验,学习世界的运转规律。
这正是强化学习(Reinforcement Learning)的核心思想。AI 就像一个在玩游戏的孩子,它通过不断的尝试(行动),得到环境的反馈(奖励或惩罚),然后调整自己的策略,以便下次获得更高的奖励。这个过程不需要海量的人工标注数据,AI 可以自己生成无穷无尽的经验数据来学习。
这种模式有几个巨大的优势:
(1)突破数据瓶颈:AI 可以自己创造学习资料,不再受限于有限的人类数据。
(2)获得真实理解: 在与环境的互动中,AI 会内化物理规律和因果关系,获得真正的"常识"。
(3)具备规划能力:为了实现长期目标(比如赢得一盘棋),AI 必须学会规划和分解任务。
今天备受关注的"具身智能"(Embodied Intelligence)——即拥有身体、能在物理世界中执行任务的机器人,正是这一思想的终极体现。
三、算力扩展的瓶颈:大模型撞墙在即?
除了理念上的局限,一些来自研究机构的量化分析,也为"大模型见顶论"提供了数据支持。
非营利组织 Epoch AI 的研究指出,用于提升大模型推理能力的训练(即在预训练之后,专门针对数学、编程等任务的强化学习阶段),可能在一年之内就会撞上"墙壁"。
他们的分析表明,虽然目前增加这部分的训练算力,还能带来模型性能的显著提升(比如 OpenAI 的 GPT-4o 相对于早期版本),但这种"性价比"正在快速下降。就像举重一样,从50公斤提升到100公斤可能不难,但从200公斤再提升1公斤都变得极其困难。
研究预测,如果继续沿着当前的技术路线,推理训练的性能提升速度,将从现在"每几个月增长10倍"的惊人速度,迅速放缓到"每年增长4倍"的常规速度。
这意味着,单纯依靠"堆算力、堆数据"的野蛮生长模式,其红利期可能很快就会结束。这也从侧面印证了,AI 的发展迫切需要一次新的"范式革命",而不是在现有道路上无限地内卷。
总结:一场马拉松,而非百米冲刺
将所有观点汇总起来,我们可以得出一个清晰的图景:
今天我们正处于 AI 发展的一个独特转折点。大语言模型作为一项革命性的技术,极大地提升了机器处理语言和信息的能力,它在未来几年内依然会是极其有用、极其强大的工具。
但是,它很可能不是通往通用人工智能(AGI)的最终答案。它更像是一个阶段性的、过渡性的产物。
AI 的发展是一场漫长的马拉松,而不是一次百米冲刺。真正决定这场比赛胜负的,或许不是谁的模型参数更大、能吸收更多的人类知识,而是谁能率先构建出一种全新的架构,让 AI 能够像生命体一样,通过与环境的持续互动,自主地学习、理解和适应这个复杂多变的世界。
正如萨顿所说,AI 的未来,属于那些拥抱"扩展计算"与"经验学习"的方法。五年之后,当我们再回头看今天的大模型时,或许会像我们今天看待几十年前的"专家系统"一样——承认它曾经的辉煌,但也清晰地看到它的时代局限性。而那时,一个崭新的、更接近智能本质的 AI 时代,或许已经悄然开启。
看到这里了还不给博主点一个:
⛳️ 点赞
☀️收藏
⭐️ 关注
!
💛 💙 💜 ❤️ 💚💓 💗 💕 💞 💘 💖
再次感谢大家的支持!
你们的点赞就是博主更新最大的动力!