作为一名技术从业者,我们正处在一个激动人心的时代。每天,AI都在刷新我们的认知:大型语言模型能与人对谈、写代码,AlphaFold以原子级的精度预测蛋白质结构,AI系统从海量数据中识别出人眼无法察-察觉的模式。我们为这些成就欢呼,感觉自己正手握开启未来的钥匙。
然而,最近读到斯坦福神经科学家Grace Huckins的一句话,像一盆冷水浇在我的头上:
“虽然强大的AI工具和海量数据集正在推动实际进步,但它们可能没有深化我们对宇宙的理解。”
这句话让我陷入了沉思。我们用AI造出了越来越好用的“锤子”,但我们真的更理解“钉子”和“木头”了吗?还是说,我们正满足于成为一个更高效的“木匠”,而放弃了成为“物理学家”的追求?
一个被遗忘的“芯片实验”:当神经科学遇到微处理器
要理解Huckins的担忧,我们得回到一个近十年前、看似有些“疯狂”的实验。
宾夕法尼亚大学的Konrad Kording教授和他的学生Eric Jonas,决定用研究大脑的方式来研究一个我们早已“完全理解”的东西——MOS 6502微处理器(就是驱动Apple II和任天堂游戏机的那款经典芯片)。
他们没有去读芯片的设计文档,而是做了一件在神经科学领域司空见惯的事:
-
数据采集:把芯片的4510个晶体管当作“神经元”,记录它们在运行《大金刚》等游戏时的电活动,生成了海量数据。
-
“病变”研究:模拟“敲掉”单个晶体管,观察芯片的行为(游戏输出)会发生什么变化,这类似于研究大脑特定区域受损后的影响。
-
高级分析:使用当时最先进的神经科学分析方法,如PCA、Granger因果分析等,试图从数据中反推出芯片的工作原理。
结果如何?一败涂地。
尽管他们手握关于这个系统的完美、完整的数据,但所有分析结果都没能帮助他们理解芯片的任何高级概念,比如什么是“时钟周期”,什么是“算术逻辑单元(ALU)”。他们最终在论文中沮丧地写道:
“我们的结果远未达到我们所说的‘令人满意的理解’……若没有新的理论和分析方法,更多的数据不会帮助任何人理解大脑的工作原理。”
这个“微处理器论文”是一个绝佳的寓言。它警示我们:拥有一个系统的全部数据,甚至能够预测其行为,与真正“理解”这个系统的工作原理,是两件完全不同的事。
AlphaFold的胜利:预测的巅峰,理解的“黑箱”
快进到今天,我们有了比十年前强大得多的工具——深度学习和生成式AI。这些工具正在以前所未有的能力处理海量数据。神经科学家们用AI解码大脑活动、重建听到的播客,这些成果令人惊叹。
而其中最耀眼的明星,莫过于DeepMind的AlphaFold。它在蛋白质结构预测领域的成功是革命性的。我们来看一组对比数据:
| 评估指标 (GDT_TS) | 传统实验方法(X射线晶体学等) | CASP13 (2018) AlphaFold 1 | CASP14 (2020) AlphaFold 2 |
| 中位数精度 | ~95+ | ~60 | 92.4 |
| 原子精度 (RMSD) | - | - | 0.96 Å (原子级别) |
注:GDT_TS是衡量蛋白质结构预测准确度的主要指标,90以上被认为与实验方法相当。一个碳原子的宽度约为1.4 Å。
AlphaFold的精度已经达到了实验级别,这是一个里程碑式的成就。然而,Huckins一针见血地指出:
“AlphaFold是一个巨大的、极其复杂的系统,没有人理解它是如何工作的。它能做出很好的预测,但这些预测的来源是一个谜。”
这正是问题的核心。我们创造了一个能够精准预测蛋白质如何折叠的“神谕”,但我们并没有因此获得一个关于蛋白质折叠普适、简洁的物理理论。我们知道**“是什么”(What),却不知道“为什么”**(Why)。
“理解”与“预测”的分离:科学范式的转变
在经典科学时代,“理解”和“预测”几乎是同一件事。牛顿因为理解了万有引力,所以能精准预测天体的运行。
但AI和大数据正在将这两个目标分离开来。
大多数AI系统,本质上是相关性引擎和预测机器。它们通过消化海量数据,学习输入和输出之间的复杂统计模式。它们没有人类所依赖的先验知识、物理模型或因果理论。正因为如此,它们需要远超人类认知能力的数据量来“发现”这些模式。
其结果是,AI可以在没有“理解”的情况下,做出超越人类的“预测”。
-
AI可以筛选出可能成为有效抗生素的分子,但它不知道“抗菌性”的生化原理。
-
AI可以为抑郁症患者推荐最有效的药物,但它没有一个关于“抑郁症”和“药物作用机制”的统一理论。
这带来了一个根本性的问题:如果一个工具能持续给出正确答案,我们还有必要去探寻答案背后的原理吗?
当AI能够系统性地、大规模地进行“没有理解的创新”时,科学的本质正在被悄然改变。几个世纪以来,“理解”是通往技术创新、药物发现等应用目标的必经之路。而现在,AI似乎开辟了一条捷径,让我们可以绕过“理解”,直达终点。
我们究竟需要什么样的科学?
这场“理解的危机”并非始于AI。已故的生物学家卡尔·沃斯(Carl Woese)在2004年就曾发出警告,他反对将生物学“工程化”的倾向:
“允许科学滑入‘改变世界而不试图理解它’的角色,对社会是一种危险。”
他主张,科学的首要目标应该是寻求理解,而非仅仅是改变世界。
Grace Huckins的观点,正是对这个警告在AI时代的重申。她并非否定AI的巨大价值,而是提醒我们,当科学的两个目标——“实用”(开发技术、解决问题)和**“理解”**(探索宇宙的深层规律)——被AI分离时,我们作为技术和社会的一份子,有责任做出选择。
作为身处这场变革浪潮中的开发者、工程师和科研人员,这个问题离我们并不遥远:
-
当我们训练一个模型来优化推荐系统时,我们是满足于更高的CTR,还是去探究模型揭示了哪些过去未被发现的用户行为模式?
-
当我们使用AI进行科学模拟时,我们是仅仅满足于发表一篇结果惊艳的论文,还是致力于将AI的“黑箱”洞察转化为人类可以理解的知识和理论?
AI为我们提供了前所未有的强大工具,但也给了我们“不去理解世界”的许可。如何使用这份许可,将决定我们是走向一个技术更先进但认知更肤浅的未来,还是利用AI作为一种全新的“显微镜”,去探索那些人类智慧难以触及的、更深层次的宇宙奥秘。
那么,你怎么看?你认为在AI时代,我们应该优先追求预测的准确性,还是理解的深度?欢迎在评论区留下你的思考。
1665

被折叠的 条评论
为什么被折叠?



