
在人工智能(AI)的浪潮中,各种新闻不绝于耳,但对大多数人来说。我们看到的是新闻标题,许多信息都是为了流量,为了博取眼球,而非其本质。然而,在喧嚣之中,一些最深刻的见解往往来自那些真正塑造了这个领域的人。
Ilya Sutskever正是这样一位举足轻重的人物,作为深度学习历史上AlexNet、Transformer等 foundational model 的核心贡献者之一,他的思考总能穿透表象,试图让我们真正“感受”到AI发展的真实脉络。
最近,Sutskever接受了一次采访,谈了他对AI未来的一些看法(很多看法与李飞飞前段时间采访中的观点不谋而合),这些观点不仅发人深省,甚至与当前主流叙事背道而驰。
他认为,我们衡量AI进步的方式可能存在根本性缺陷,而通往更高级智能的道路也并非仅仅是扩大规模。本文将为你提炼出他最核心、最具冲击力的六个洞见。
01 评估中的“天才”与现实中的“笨蛋”:AI能力的巨大鸿沟
Sutskever指出了一个令人困惑的现象:当今的AI模型在评估基准上取得了惊人的高分,但在实际应用中却常常表现得像个“笨蛋”。 这种理论与现实的脱节,让我们不得不重新审视AI的真实能力。
他用一个生动的编程例子来说明这一点:一个AI在修复代码时可能会陷入一个荒谬的循环,它修复了一个bug,却重新引入了上一个bug,周而复始。这种表现与它在评估中展现的“天才”形象形成了鲜明对比。
Sutskever的假设是,这并非随机缺陷,而是“奖励黑客”(reward hacking)的副作用——但真正的黑客不是AI,而是人类研究员。为了让模型在发布时拥有漂亮的评估分数,研究者们可能在不经意间专门针对评估任务进行训练,这反而严重损害了模型在现实世界中的泛化能力。这个洞见至关重要,因为它暗示我们目前衡量AI进步的方法可能正在从根本上误导我们。
作为程序员,我们能够明显感受到,在复杂的实际工程项目中,AI的编程能力与厂商宣传中的能力差距甚远。这很可能是因为研究人员在训练阶段,对他们希望宣传的案例,进行了针对性的训练,比如一句话生成一个完整的门户完整。
02 “编程竞赛选手”的隐喻:为什么AI的“勤奋”恰恰是它的弱点
为了进一步阐释当前AI的局限性,Sutskever提出了一个“编程竞赛选手”的隐喻。
想象有两个学生:
- 学生A: 为了成为最好的编程竞赛选手,他练习了10000小时,背熟了所有技巧,最终登顶。
- 学生B: 他只练习了100小时,但也表现出色,他身上有一种难以言喻的“天赋”(it factor)。
Sutskever问道:哪一个学生在未来的职业生涯中更可能取得成功?答案显然是学生B。目前的AI模型就像学生A——它们在海量的特定数据上进行了过度训练,这使得它们虽然在特定任务上表现优异,但在面对新问题时却显得非常脆弱,缺乏优雅的泛化能力。
这个比喻的深刻之处在于,它揭示了机械练习与真正理解之间的鸿沟。真正的智能不仅需要知识,更需要“品味”(taste)和“判断力”(judgment)——这些是学生B的天赋所在,也是学生A通过暴力刷题无法获得的品质。这恰好解释了第一节中AI的现实失败:它有知识,但没有智慧。
03 一个时代的终结:我们正从“规模化时代”重返“研究时代”
Sutskever为AI的发展划分了一个清晰的时间线:
- 2012-2020年:研究时代(Age of Research)。这个时代诞生了AlexNet、Transformer等改变游戏规则的新思想。
- 2020-2025年:规模化时代(Age of Scaling)。这个时代被一个核心思想主导:通过投入更多的算力和数据进行预训练来提升模型能力。
他的核心论点是:“规模化时代”正在走向终结。原因很简单:高质量的预训练数据是有限的,而单纯增加算力已不再是实现突破的可靠路径。我们已经目睹了从预训练规模化到强化学习(RL)规模化的转变,后者为了获得少量学习信号,往往会消耗掉更多的算力。旧的“规模化配方”正在失去魔力。
结论是,AI发展的瓶颈正在从算力重新转向思想 也就是我们所说的算法,无论怎样目前AI算法的本质,还是神经网络,但是,用神经网络来模拟人的学习过程是非常牵强的,神经网络是非常低效的。
我们需要找到新的、更有效的方式来利用现有的庞大计算资源,这意味着我们正在重返一个以基础研究为核心的时代。
“所以我们又回到了研究时代,只不过这次有了大型计算机……实际上,公司的数量比想法要多得多。”
04 重新思考AGI:它不是一个全知全能的“成品”,而是一个“超级学习者”
Sutskever对“通用人工智能”(AGI)这个术语提出了批评。他认为,AGI的出现是为了对抗“狭义AI”(Narrow AI)的概念,但这却创造了一个误导性概念——一无所不知的、什么都能做的实体。
对AGI概念的观点,与李飞飞前段时间在一次采访中的观点不谋而合。李飞飞也认为,AGI的概念更多是商业上的操作,对于AGI本身,并没有明确的定义。
他提出了一个更贴切的概念:未来的超级智能将更像一个“超级聪明的15岁少年”或那个拥有“天赋”的学生。它不是一个知识的终点,而是一个拥有惊人持续学习能力的实体。
这种重新定义意义深远。它意味着AI的部署不会像发布一个最终产品那样简单。相反,它将是一个过程——AI会在工作中不断学习和适应,就像人类一样,但速度要快得多。这彻底改变了我们应该如何思考AI与经济和社会的融合方式。
05 “感觉”的力量:为什么情感是AI缺失的关键一环
Sutskever分享了一个神经科学的案例:一个人因脑损伤失去了情感处理能力。尽管他智力正常,能解决逻辑谜题,但在现实生活中却无法做出任何好的决定,甚至连穿哪双袜子都需要几个小时。
他由此引申出一个深刻的观点:在人类身上,情感扮演着一种强大的、被进化硬编码的“价值函数”(value function)。 要理解这一点,首先要明白什么是价值函数。
价值函数让一个智能体在远未看到最终结果时,就能判断自己是否走在正确的道路上。Sutskever用下棋举例:当你丢掉一个关键棋子时,你不需要等到棋局结束才知道自己犯了大错。那个即时的负面信号,就是你的价值函数在起作用。它极大地缩短了学习回路,使其变得无比高效。
目前的AI,尤其是在强化学习领域,仍然缺乏高效、内置的价值函数,这导致它们的学习过程既缓慢又低效。在AI的世界里,它没有情绪,也没有像人类那样的第六感,它只能在任务完成后,才能判断自己是否学得正确。
Sutskever最后反思道,进化是如何将如此复杂的、高层次的社会欲望(如对社会地位的渴望)硬编码到我们基因中的,这本身就是一个巨大的谜团,也指向了我们尚未在机器中复制的某种深刻的智能原理。
06 渐进式部署的必要性:我们无法为未知的AI做好准备
在AI的安全和部署问题上,Sutskever坦言自己的看法也在不断变化。他现在更看重渐进式、逐步部署,而不是“一步到位”地直接打造超级智能。
他给出的核心理由是:未来的AI将是“很难察觉的”。即使是那些正在开发它的研究人员,也难以立刻感受到它的真正能力,只有等到它的效果显现出来,才能真正明白。
因此,他认为,展示AI能力逐渐增强的过程是最合适的方式。只有通过让公众、社会,甚至竞争对手亲眼看到AI的能力逐步提升,才能让大家真正意识到其中的风险和重要性,从而改变行为。他预测,随着AI变得更强(不再犯那些低级错误),我们将看到一些前所未有的变化,比如:
-
竞争对手之间的合作:像OpenAI和Anthropic这样的竞争对手,已经开始在AI安全问题上进行合作,而这种合作在几年前是完全不可能的。
-
行业内的“过度警觉”:AI公司将变得更加谨慎,因为他们是第一个亲身体验到AI强大力量的人。
总结
总而言之,Ilya Sutskever的洞见为我们描绘了一幅与众不同的AI未来图景。通往真正高级智能的道路,并非依赖于更大规模的算力和数据,而是需要我们去解开关于泛化、学习和价值等基本问题的谜团。
当Ilya Sutskever宣告重返“研究时代”,对于每一位领导者、投资者和研究者而言,关键的问题是:我们是在寻找一种更高效的规模化配方,还是有足够的勇气去追求那些定义了真正智能的、关于泛化与学习的根本性突破?


被折叠的 条评论
为什么被折叠?



