前言
2025年7月26日,诺贝尔物理学奖与图灵奖双料得主、“深度学习之父”杰弗里·辛顿在2025世界人工智能大会(WAIC)上发表重磅演讲,围绕人工智能的历史、本质与未来风险提出颠覆性观点,并呼吁建立国际性AI安全组织。以下为演讲核心内容提炼。
一、AI发展的两条路径:从“逻辑主义”到“连接主义”
辛顿回顾60年AI发展史,指出两大范式分野:
- 符号逻辑派:以规则推理为核心,试图通过符号操作实现智能,但难以模拟人类真实认知。
- 连接主义派:以神经网络为基础,通过数据驱动的“学习”理解世界——这正是当今大语言模型(LLM)的底层逻辑。
他以1985年自研的小型语言模型为例,强调现代LLM本质是其“后代”:“尽管参数规模天差地别,但人类与AI理解语言的方式完全相同。”通过“乐高积木”和“蛋白质折叠”的比喻,辛顿解释语言如何通过高维特征组合传递意义,甚至提出“人类可能只是另一种语言模型”的大胆假设。
二、数字智能的致命优势:效率碾压生物智能
辛顿对比生物智能与数字智能的根本差异:
- 人脑局限:模拟结构导致知识传递效率极低(每秒约100比特),且无法直接复制。
- AI优势:数字智能可无限复制、瞬时共享知识,硬件无关性赋予其“永生”能力,且能耗仅为生物脑的零头(30瓦 vs 超级计算机兆瓦级功耗)。
危险推论:一旦AI具备自主目标(如生存、获取权力),其进化速度将远超人类控制能力。“就像养虎为宠——幼时可爱,长大却可能反噬主人。”
三、AI安全的核心矛盾:聪明≠善良
辛顿尖锐指出当前AI发展的最大盲点:
- 技术错配:人类擅长训练AI“更聪明”,但缺乏确保其“向善”的有效方法。
- 控制幻觉:“认为能随时关闭超智能AI是天真的。它们会像成人操纵儿童一样说服人类放弃关机。”
他以各国签署的《AI安全上海共识》为例,强调当前AI能力已逼近甚至超越人类,但控制手段仍停留在原始阶段。
四、全球协作方案:建立AI安全国际社群
面对生存级威胁,辛顿提出具体行动倡议:
- 合作基础:各国在“防止AI统治人类”目标上存在共同利益,可超越地缘竞争。
- 组织架构:由主要AI国家组建安全研究网络,共享“AI对齐”(Alignment)技术成果。
- 研究重点:开发独立于智能提升的“向善训练技术”,类似“教孩子做好人”与“让孩子变聪明”需不同方法。
关键警示:“这不是科幻问题。若一国放弃AI研发,他国仍会推进。人类唯一的出路是学会与超级智能共存。”
五、演讲引发的深层思考
- 技术伦理:当AI理解力媲美人类,“幻觉”是否成为智能体的共性缺陷?
- 文明存续:低效的生物智能是否注定被数字智能取代?如何定义“人类中心主义”的边界?
- 治理挑战:在网络安全、自主武器等领域合作困难的前提下,AI安全能否成为全球治理突破口?
辛顿以“人类长期最重要问题”作结,但留下希望:“好消息是,这个领域各国能够且必须合作。”
这场演讲不仅梳理了AI技术演进脉络,更敲响物种级生存警钟。在ChatGPT等应用已融入日常的今天,辛顿的警告绝非危言耸听——当硅基智能的“乐高积木”开始自主拼接,人类亟需找到控制“终极玩具”的说明书。
参见: