为什么李飞飞说LLM走不到AGI?真相很残酷!大模型根本不懂物理世界!

我们是不是被骗了?大模型写得像人,聊得像专家,答得一本正经,让人以为“AGI就在眼前”。可李飞飞(斯坦福大学人工智能实验室主任)一句话,把这层幻觉撕开:“LLM这条路线注定走不到AGI的终点。”她点出的残酷现实是——语言模型再强大,依然困在词语的牢笼里,看得到世界,却永远摸不到世界。

语言模型的底层逻辑并不神秘。它的任务只有一个:在海量语料中学习统计模式,预测下一个最可能出现的词。换句话说,它擅长的是续写、润色、模仿风格,甚至营造出“逻辑推理”的错觉。但这些操作无一例外,都发生在文本的内部。它理解的,是语言的世界,而不是物理的世界。

问题就在这里。我们生活的世界,不是词语拼出来的。它有重量,有速度,有摩擦力,有随时可能出现的意外和偏差。人类的智能,正是通过不断和这些不确定性打交道才被塑造出来的。比如伸手去抓一杯水,语言模型能告诉你“伸手、抓取、拿起”,但现实中你需要判断力的大小,调整动作的角度,还得防止水洒出来。这些能力,任何只会处理符号的模型都学不到。

如果智能只是停留在语言上,就像一个只会看地图的人,永远不知道走路时的坑洼和泥泞。地图能告诉你方向,却无法带你穿越真实的地形。AGI的终点,必然在文字之外。

李飞飞的提醒正是要我们看清这点:真正的智能必须是感知—行动—反馈的闭环。它要能看,要能听,要能触摸世界,要能在失败中修正,再在修正中学习。这不是把模型参数翻倍、语料扩展到互联网全部数据就能解决的,而是要跨出“词”的舒适区,进入空间、物理与行动的真实复杂性。

这条路难吗?当然难。它需要机器人学、计算机视觉、传感器技术、因果推理、强化学习的系统性突破。它需要AI在真实环境里不断试错,而不是只在显卡堆出来的虚拟世界里打转。更重要的是,它需要工程师和科学家有勇气,承认“光靠语言是走不通的”,然后重新搭建通往世界的桥梁。

但走出文字围城,也意味着新的风险。一个写错答案的语言模型,最多是信息误导;可一个能行动的智能体,如果决策错误,可能直接带来现实伤害。如何确保它的行为安全、可解释、与人类价值一致,将是更艰难的考验。

好消息是,这场转向已经开始。研究者在虚拟仿真环境中训练智能体,让它们先在沙盒里学会基础动作,再逐步走向真实世界;多模态模型正尝试把语言、视觉、动作与记忆统一起来;机器人实验室正在让AI不止会“说”,还会“做”。这条路漫长,但可能才是真正通向AGI的那条。

李飞飞的这句话,是对当下AI狂热的一针清醒剂。别被语言的幻觉蒙蔽,大模型的流畅并不是智能的终点。AGI的未来,一定会超越文字,走向那个有风、有雨、有重量的世界。

公众号:OpenSNN

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值