人工智能的崛起毫无疑问正重塑世界。它正在写诗、开药方、做投资决策,甚至掌控方向盘。这场由算法驱动的技术革命,让我们看到前所未有的可能性。然而,越是强大的系统,也越需要被理解和控制。一个“无法解释自己为何这样做”的智能体,不仅令人不安,也无法真正获得信任。这,就是AI黑箱问题的本质。
在2025年博鳌亚洲论坛上,“拥抱AI,如何兼顾发展与安全?”成为高频话题。与会嘉宾普遍认为,AI能力增强的同时,其不可控、被滥用的风险也在指数级上升。换脸诈骗、AI伪造音视频、虚假信息传播……2024年全球超过三成AI风险事件都与“深度伪造”有关。AI正加速从实验室走向大规模应用,而它带来的安全挑战已不能再靠“事后救火”解决,必须“事前筑堤”。
这其中一个核心难题,就是“黑箱”结构所带来的不可解释性。尤其是在深度神经网络、大模型等技术背景下,AI的决策路径往往藏在层层权重和参数之中,连开发者也难以追踪。这不仅带来信任危机,更成为在医疗、司法、金融、自动驾驶等关键领域推广AI的最大障碍。想象一下,一辆无人车在事故发生后却说不清“为什么那一刻它选择了左转”,法律该如何裁决?公众又该如何安心接受它的存在?
为破解这一困境,全球技术界正掀起一股“可解释人工智能”(XAI)热潮。与传统AI“结果导向”不同,XAI强调“过程可见”。它不是要替人类做决定,而是要让人类理解它做决定的理由。这种“自带说明书”的AI,正成为AI安全治理的重要突破口。例如,在无人驾驶领域,优智创芯研发的“XSN可解释自主导航模块”通过类脑架构,让系统不仅能应对复杂道路场景,还能清晰呈现其每一步路径选择的逻辑。它的出现,不仅满足了欧盟GDPR对自动决策系统的可解释性要求,也为国内无人驾驶技术纳入法律体系提供了技术支撑。
但我们不能把希望仅寄托在技术创新上。治理必须跑在风险前面。2023年以来,我国密集出台多项人工智能管理新规,如《生成式人工智能服务管理暂行办法》《人工智能合成内容标识办法》等,全面覆盖AI从生成到传播的各环节。这些制度性“安全护栏”不仅划出了红线,也推动了AI企业从“拼能力”向“讲责任”转变。同时,全国多地互联网法院已陆续审理AI著作权相关案件,逐步构建AI时代的法律秩序。
当然,构建AI安全生态不可能靠政策“单兵作战”,更需要社会协同。在基层,AI反诈情景剧走进社区,帮助老年人识破AI骗局;在职场,AI通识课程帮助打工人了解技术、规避风险;在高校,“以人为本、智能向善”的理念成为通识教育的一部分。技术没有国界,但安全也没有孤岛。中国发起的《全球人工智能治理倡议》,正是希望在AI这一无边界的领域,形成有边界的共识。
而在远方,我们也正逼近AGI(通用人工智能)时代的边缘。AGI的目标是构建一个能像人一样跨领域理解、学习、决策的智能体——但如果它依旧是一个“黑箱”,那它带来的不仅是震撼,更可能是深层的恐惧。通用智能的真正门槛,也许不在于性能,而在于解释能力与责任意识的嵌入。我们要的不是“强大到不可理喻”的系统,而是“强大但可理喻”的伙伴。没有可解释性,AGI无法获得信任;没有安全治理,它无法融入社会。
回望历史,每一次技术革命从来都不是单一胜利,而是技术、制度与文化的共生。从蒸汽机到互联网,再到今天的AI,社会必须在“能力”与“规范”之间寻找到那条平衡之路。人工智能的发展正在翻开新篇,而它的可持续性,取决于我们今天如何应对它的“黑箱挑战”。
安全不是发展之后的补课,而是人工智能的先修课。唯有让安全成为AI的“原生基因”,我们才能真正迎来一个值得信赖的智能时代。
公众号:OpenSNN