我们是不是被骗了?大模型写得像人,聊得像专家,答得一本正经,让人以为“AGI就在眼前”。可李飞飞(斯坦福大学人工智能实验室主任)一句话,把这层幻觉撕开:“LLM这条路线注定走不到AGI的终点。”她点出的残酷现实是——语言模型再强大,依然困在词语的牢笼里,看得到世界,却永远摸不到世界。
语言模型的底层逻辑并不神秘。它的任务只有一个:在海量语料中学习统计模式,预测下一个最可能出现的词。换句话说,它擅长的是续写、润色、模仿风格,甚至营造出“逻辑推理”的错觉。但这些操作无一例外,都发生在文本的内部。它理解的,是语言的世界,而不是物理的世界。
问题就在这里。我们生活的世界,不是词语拼出来的。它有重量,有速度,有摩擦力,有随时可能出现的意外和偏差。人类的智能,正是通过不断和这些不确定性打交道才被塑造出来的。比如伸手去抓一杯水,语言模型能告诉你“伸手、抓取、拿起”,但现实中你需要判断力的大小,调整动作的角度,还得防止水洒出来。这些能力,任何只会处理符号的模型都学不到。
如果智能只是停留在语言上,就像一个只会看地图的人,永远不知道走路时的坑洼和泥泞。地图能告诉你方向,却无法带你穿越真实的地形。AGI的终点,必然在文字之外。

李飞飞的提醒正是要我们看清这点:真正的智能必须是感知—行动—反馈的闭环。它要能看,要能听,要能触摸世界,要能在失败中修正,再在修正中学习。这不是把模型参数翻倍、语料扩展到互联网全部数据就能解决的,而是要跨出“词”的舒适区,进入空间、物理与行动的真实复杂性。
这条路难吗?当然难。它需要机器人学、计算机视觉、传感器技术、因果推理、强化学习的系统性突破。它需要AI在真实环境里不断试错,而不是只在显卡堆出来的虚拟世界里打转。更重要的是,它需要工程师和科学家有勇气,承认“光靠语言是走不通的”,然后重新搭建通往世界的桥梁。
但走出文字围城,也意味着新的风险。一个写错答案的语言模型,最多是信息误导;可一个能行动的智能体,如果决策错误,可能直接带来现实伤害。如何确保它的行为安全、可解释、与人类价值一致,将是更艰难的考验。
好消息是,这场转向已经开始。研究者在虚拟仿真环境中训练智能体,让它们先在沙盒里学会基础动作,再逐步走向真实世界;多模态模型正尝试把语言、视觉、动作与记忆统一起来;机器人实验室正在让AI不止会“说”,还会“做”。这条路漫长,但可能才是真正通向AGI的那条。
李飞飞的这句话,是对当下AI狂热的一针清醒剂。别被语言的幻觉蒙蔽,大模型的流畅并不是智能的终点。AGI的未来,一定会超越文字,走向那个有风、有雨、有重量的世界。
公众号:OpenSNN
917

被折叠的 条评论
为什么被折叠?



