人工智能的黑箱问题,正在被一种现象不断放大——幻觉。它不仅仅是模型偶尔胡说八道的失误,而是系统性风险的集中体现。用户可以容忍一次搜索结果不准,却无法容忍医疗诊断、法律意见或金融决策中的虚构事实。如果AI持续制造幻觉,问题已经不再是“技术能否迭代”,而是“用户是否还愿意买单”。

Geoffrey Hinton(杰弗里·辛顿),这位被誉为“深度学习之父”的科学家早就提醒过:深度学习的成功更多依赖数据与算力的堆砌,而非对智能原理的真正掌握。这意味着我们依旧无法解释这些模型为什么会产生幻觉,更无法保证在关键时刻它们不犯致命错误。换句话说,AI的不可解释性与幻觉是一枚硬币的两面。
在巨头的商业竞赛中,幻觉被不断弱化成“可以优化的bug”。OpenAI、Google DeepMind、Meta、微软等实验室,宁可继续榨干Transformer架构,也不愿意承认路线可能已到尽头。GPT-5的发布本该成为重大突破,却最终只被视作一次“渐进式改进”,甚至在部分测试中落后于现有模型。这不仅折射出大模型收益的递减规律,更凸显出资本为了证明投资合理性而不断放大的幻觉:AI好像无所不能,但其实黑箱愈加深邃。
如果幻觉问题得不到根治,信任就会成为AI最大的软肋。试想,当自动驾驶因幻觉式识别错误造成事故,谁来负责?当AI在金融风控中凭空“编造”数据,谁来买单?当医疗系统依赖的诊断模型输出虚假的病理分析,后果可能是生命代价。信任一旦坍塌,不仅用户转身离开,整个产业都可能被贴上“泡沫”的标签。

更严重的是,幻觉正在扭曲AI研究本身。正如Vaswani(印度裔计算机科学家)所担忧的那样,科学探索正在让位于商业变现,研究集中在少数几家巨头实验室,他们彼此之间暗自竞争、互相封锁。整个领域可能因此错失新的突破方向。
AI的未来,绝不仅仅是修补幻觉。它必须正视幻觉背后的黑箱问题,必须找到可解释性与可靠性的突破,否则一切关于AGI的宏大叙事,最终都可能沦为泡沫的自我吹胀。真正的问题不是AI能否再“骗过”一次投资人,而是人类社会是否还能继续容忍这样一个不可靠的幻觉制造机。
当用户一次次看到AI信誓旦旦地输出错误答案,当企业发现投资回报不再与想象相符,当科研界被幻觉和黑箱拉进死胡同时,我们必须直面一个尖锐的问题:人工智能,到底是颠覆未来的奇迹,还是正在酝酿中的下一场泡沫?
公众号:OpenSNN

被折叠的 条评论
为什么被折叠?



