参考消息网10月6日报道,法国《快报》周刊网站9月28日发表法国国家科学研究中心研究员弗兰克·拉米斯的文章《人工智能即将超越人类智能吗?》。他指出,尽管大语言模型如ChatGPT已经能够通过图灵测试,但真正的智能仍然遥不可及。AI能对话、能写作、能答题,甚至在学生考试中表现优异,但当面对简单的问题时,例如“法国哪些省份名字由六个字母组成”,它往往出错离谱。看似微不足道的错误,却揭示出一个根本性缺陷:AI并非理解世界,只是在语言模式中寻找最可能的答案。
这正是当下AI的悖论——语言越来越像人,但思维仍像机器。大语言模型依赖海量语料和参数训练,它们生成的文本流畅、合理,却缺乏真实推理。它不会计算,也不真正“知道”自己在说什么。当问题超出训练数据的范围,它便陷入随机生成的泥潭。AI的回答不是思考的结果,而是统计的幻觉。我们被“能言善辩”的表象所迷惑,却忽略了理解的缺席。

为了掩盖这种空洞的“伪智能”,业界选择堆叠数据、扩展模型、拼算力。每一次性能突破,都以能耗飙升为代价。训练一个顶级大模型,碳排放量相当于几百次跨洋航班。AI的聪明程度在提升,但能耗与成本的曲线却直逼天际。这种模式看似成功,实则不可持续——算力换不来思维,能源换不来理解。AI的边界,正在被自己的能耗锁死。
要突破这一困局,必须跳出“算力崇拜”,走向“类脑智能”。人脑只需约20瓦能量,就能完成复杂的感知、记忆和推理;相比之下,消耗数兆瓦电力的大模型更像一台笨拙的放大器。类脑计算正试图让AI像人一样“高效地思考”——通过神经启发的结构、突触连接的自适应学习,实现低能耗却高泛化的智能。未来的AI不一定更庞大,而应更精巧。
与此同时,可解释性成为AI能否被信任的关键。一个真正的智能系统,必须能说明“为什么”得出某个结论,而非仅仅给出结果。在医疗诊断、金融决策、自动驾驶等高风险场景中,可解释AI不仅是技术标准,更是伦理底线。我们无法信任一个连自己都无法解释决策过程的黑箱智能。真正的竞争,不在于参数数量,而在于逻辑透明与因果清晰。
低数据、低代码、低能耗,正在成为AI发展的新方向。研究者逐渐意识到,智能的核心不在于记住世界,而在于理解规律。通过强化学习、符号逻辑、知识蒸馏等技术,AI正在尝试在更少的数据中学习更多的知识。这种“节制式智能”理念,正在取代无止境的“堆料式智能”。

未来的通用人工智能,也许并不会出现在某个超大模型中,而会诞生于“混合架构”:语言模型负责交互,逻辑系统负责推理,算法模块负责精确计算。这种结构更接近人脑的分工方式——感知、语言、记忆、推理相互协作。当AI学会在不同模块间协同,而非盲目扩张时,它才可能真正实现理解。
回望图灵的设问——“机器能思考吗?”——我们或许该改问一句:机器能否在有限能量和有限数据下,做出可解释、可验证的判断?真正的智能,不是让机器模仿人,而是让它以最小代价理解世界的逻辑。AI的未来,不在下一个千亿参数的巨兽,而在一个能自我解释、低能耗、类脑化的系统。
当AI学会“少想一点”——少算一点、少耗一点、少装一点——也许它反而会更接近真正的思考。那一刻,机器不再是语言的幻象,而是理解的起点。真正的智能革命,也许就藏在那份克制之中。
公众号:OpenSNN
1149

被折叠的 条评论
为什么被折叠?



