“有Bug,打补丁”这一套,在AI时代已经废了……可为啥老板还以为能修好?

【优快云 编者按】你是否也曾困惑:明明大家都在担心 AI 出 Bug、出风险,为什么很多老板却对 AI 的安全性显得格外从容?是他们掌握了普通人不知道的技术底牌,还是我们对 AI 风险的理解,从根源上就错了? 

长期以来,我们被“软件Bug能修复、代码逻辑可追溯” 的思维固化 —— 遇到问题找代码、改 Bug,似乎成了技术故障的通用解法。但当这套逻辑套在 AI 身上时,却完全失灵了:AI 的“Bug”不在代码里,而在千亿级训练数据的洪流中;修好的异常可能因一句提示词重现,连开发者都猜不透它藏着哪些未知能力。

原文链接:https://boydkane.com/essays/boss

作者 | Boyd      翻译 | 郑丽媛

出品 | 优快云(ID:优快云news)

在理解 AI 系统风险这件事上,大众的认知陷入了一种最糟糕的误区 —— 他们坚信的“事实”,其实根本不成立。

过去 40 年里,软件行业不断向外界科普一个重要观念:Bug 是危险的,软件错误会造成严重后果。这本身是好事,毕竟人们意识到软件会对现实世界造成伤害,是一种进步。更重要的是,大众不仅知道这种风险,还普遍认为 “Bug是可以修复的”——哪怕修复过程既费钱又复杂,但总归能解决。

但问题就出在这里——当人们把这种对“传统软件”的认识,套用到 ChatGPT 这类 AI 上时,就完全不成立了。AI 的运行方式,与我们电脑、手机上那种“可控的程序逻辑”完全是两套体系。如果继续用看待常规软件漏洞的“合理假设”去理解 AI,只会产生误导,甚至带来危害。

图片

图片

常规软件认知套用到 AI 上,只会造成困惑

当人们用常规软件的逻辑去理解 AI 时,经常会提出这些问题:

  • “ChatGPT 出问题了,不就是哪个程序员没写好?找个高手查查,把漏掉的分号啥的补上不就把 Bug 修好了?”

  • “就算一个人搞不懂整个 AI 系统,总有人能分别搞懂 AI 的每个部分吧?”

  • “现在 AI 系统的表现还有 Bug 啊,不过没关系,早期软件也是这样,用久了、打补丁就稳定了。”

如果你了解现代 AI 的工作机制,就会知道这些说法基本全是错的。但对习惯了常规软件的人来说,这些疑问又显得无比合理。这就导致了 AI 领域“专家”和“小白”之间的认知鸿沟:

  • 专家不说,因为他们觉得“AI 和常规软件不一样”是常识,没必要反复解释;

  • 小白不懂,因为他们压根不知道存在这些差异,所以误解的根源始终得不到暴露。

最终结果是——专家觉得自己说的道理“怎么没人听懂”,而普通人觉得专家“那些危言耸听的说法漏洞百出”。但本质上,是双方对“AI 如何运作”有着不同、却从未说出口的假设。

图片

这些关于软件的 “正确认知”,套在 AI 上全是错的

为了更明确,我们可以列出几条“在传统软件中成立,但在现代 AI 中完全失效”的常识:

❌传统认知 1:Bug 是代码写错了

在传统软件中,Bug来源于代码本身。即使项目有几十万行代码,体量也不过 50MB 左右。

但在 AI 中,“Bug”更多是训练数据的问题。训练一个大模型需要上千 GB 的数据,而且问题并不是来自“某一条错误数据”,而是海量数据共同塑造出的某种倾向。更关键的是,这些数据集规模太大,没人能完全掌握 AI 的训练数据到底包含什么。

举个例子:FineWeb 数据集大约有 11.25 万亿个单词。按每分钟读 250 个单词的速度——一个人要连续读 8.5 万年才能读完。无论是单个人还是一个团队,都不可能像排查代码那样“逐条检查”AI所有的训练数据。

❌ 传统认知 2:Bug 可以通过阅读逻辑来定位

在传统软件中,一个有经验的开发者能通过调试、阅读源码、还原执行链路,找到并修复 Bug。

但在 AI 中,你无法反推出“哪一条训练数据导致了某个逻辑错误”。研究人员的做法一般只有两种:要么用更多数据重新训练 AI,抵消异常行为;要么推倒重来,重新筛选训练数据,剔除可能引发问题的部分。

换句话说:你永远无法“精准修复”一条 AI Bug,只能“整体重新训练”,然后祈祷它不再复现。

❌ 传统认知 3:修好的 Bug 不会再出现

常规软件的 Bug,只要修好一次就不会再出现。就算后续可能会有相似问题的新 Bug,但和之前修复的肯定不是同一个。只要有耐心,就能慢慢减少 Bug 数量。

但AI 完全不是这样。你只能说“在我测试过的 Prompt 中,它不再出错”,但你无法保证“未来没有人用某个奇怪的 Prompt 把问题又触发出来”。AI 的 Bug 不是一个可控点,而是一片模糊的概率空间。

❌ 传统认知 4:相同输入 → 相同输出

传统软件有确定性。同样的输入,得到的就是同样的输出。

而AI 的输出具有高度敏感性与随机性——哪怕你只是多了一个问号、少了一个大写字母,响应也可能完全不同。而且 AI 服务端往往还会不断调整“回答风格”,即使你输入完全相同内容,从模型版本到对话上下文,每个变量都可能导致结论不同。

❌ 传统认知 5:只要明确需求,软件就能按规范稳定运行

企业开发软件时,会写需求文档,然后按规格实现功能,确保程序只做预期行为。

但 AI 不是“实现一个功能”,而是“训练一个能力集合”:你可以训练它“能写代码”、“能说英文”,但你无法训练它“永远不误导用户”,无法预先定义它的全部能力,也无法为它写完备的测试用例。

所以我们经常看到这样一幕:AI 发布几个月后,才突然有人发现“它居然还会这个”。比如擅长玩 Geoguessr(地理猜谜游戏):

图片

或者能把照片改成吉卜力工作室动画的风格:

图片

但这些“隐藏能力”不一定都是正面的。AI 也可能藏着某种危险能力,只是还没人找到触发它的正确提示词。

总体来说,尽管我们可以通过测试证明“在某些情况下 AI 是安全的”,但也无法证明 AI“在所有可能输入下都是安全的”。这从根上决定了:AI 不是一个你可以“精确调试”的程序,而是一个你只能“影响大势”的黑箱系统。

图片

接下来该怎么做?

传统软件工程关于“Bug 可修复”的认知体系,非常宝贵,但把它套在 AI 上,就是一种误导。

AI 安全是个复杂又微妙的话题。我们能做的,就是确保大家在同一个认知基础上讨论 —— 也就是说,要让身边人明白:如果 AI 真的出了问题,我们没法像修常规软件那样 “打个补丁修复漏洞”。

如果你是第一次通过这篇文章意识到 “AI 和常规软件本质不同”,请记住这个认知差异,并分享给更多还停留在“补补丁就好”思维的人;如果你早就知道这两者本质不同,不妨和家人、非技术圈的朋友聊聊,你可能会惊讶发现——大多数人根本不知道这件事。

推荐阅读:

C++之父Bjarne Stroustrup亲临现场,2025全球C++及系统软件技术大会重磅官宣

被“白嫖”太狠!高达10亿次下载量的老牌开源软件官宣:停发免费Docker镜像,要用就自己建!

计算器吃掉42GB内存、AI还删了生产数据库?巨头狂砸3640亿,也救不回软件质量的“全面崩塌”……

图片

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值