在探讨人工智能问题时,信任往往是我们首先会想到的。如今,人工智能已广泛应用于众多领域,其中不乏对人类生活产生直接影响的领域,如医疗保健和司法。为了能够信任这些领域中机器做出的决策,我们需要它们解释为何要这样做,以及决策背后的依据是什么。这就引出了可解释人工智能(XAI)这一重要概念。
可解释人工智能的定义
可解释人工智能是一系列使人类能够解开计算机决策“黑箱”的方法。可解释人工智能模型主要分为以下几类:
- 固有可解释模型:这类模型从设计之初就考虑到易于理解的特性,方便人类解读其决策过程。
- 黑盒模型:这些模型在设计时并未遵循可解释人工智能的原则,需要特殊技术才能解读其含义。例如一些复杂的深度学习模型,其内部结构和决策逻辑如同一个黑匣子,难以直接理解。
- 可复制模型:如果机器学习模型取得的研究结果能够被复制,就说明它是有效的。然而,有时很难确定复制过程是否正确。
像亚马逊和IBM等领先科技公司通常会提供可解释人工智能套件,它们有助于描述人工智能模型的流程、预期结果以及可能影响模型性能的潜在偏差。如今,如果企业希望管理合规风险,在使用人工智能时就必须将可解释人工智能原则融入其开发过程。否则,一旦无法为模型的决策提供合理说明,就可能面临巨额诉讼,脸书和谷歌就曾多次遭遇此类情况。总体而言,可解释人工智能有助于提高组织的准确性、公平性和透明度,推动企业以负责任的方式进行人工智能开发。
可解释性与可解释性的区别
在机器学习中,“可解释性”和“可解释性”这两个术语常被混用,但实际上它们有着不同的含义。可解释性描述的是人工智能系统的内部机制能够被解释的程度,以便人类理解。在理想情况下,我们只需用英语向机器询问“你为什么要这样做?”,就能得到一份清晰的决策因素列表。而可解释性则侧重于根据输入预测输出的能力,它将模型视为一个黑箱。即使你有良好的可解释性,能预测模型的结果,但却无法得知其决策的原因。这两者对于让人工智能更易于人类接受都非常重要。
可解释人工智能的主要原则
可解释人工智能方法论基于美国国家标准与技术研究院(NIST)制定的四项主要原则:
- 解释性:人工智能需要为其输出提供解释,并给出支持该解释的证据。解释的类型可能因系统而异,但至少要有解释。例如,在医疗系统中,可解释人工智能可以为患者的诊断结果提供原因;在银行贷款审批中,能说明贷款获批或拒绝的理由。此外,提供解释还能帮助系统在社会中获得信任和认可,如脸书若能解释其动态消息算法的工作原理,有助于改善公众形象。
- 有意义性:这一原则要求用户能够理解人工智能给出的解释。由于用户的技术背景和理解水平各不相同,实现这一原则颇具挑战。理想情况下,解释应让任何人都能理解,无论其知识和技能水平如何。判断人工智能给出的解释是否真正有意义的一个方法是,看它是否提供了足够的信息,使用户能够完成某项任务。
- 准确性:人工智能对其输出的解释应与现实相符。软件工程师有责任确保人工智能清晰地描述其得出特定结论的过程。准确性针对的是解释本身,而非结果。如果解释基于错误的前提,用户就无法从中受益或信任它们。
- 局限性:每个系统都有其知识局限性,人工智能应意识到自身的知识边界,避免产生误导性结果。为了符合这一原则,软件必须向最终用户识别并声明其知识局限性。
可解释人工智能的应用场景
- 高责任领域:机器学习建模和其他人工智能方法如今常用于以前被认为是人类专属的领域,如司法领域中协助法官量刑,医疗领域中辅助外科医生进行手术。虽然人工智能有时表现得比人类更好,但也会犯人类不会犯的错误。若盲目依赖机器,这些错误很难被发现。因此,在医疗、司法和汽车等领域使用可解释人工智能有助于避免严重后果。
- 人工智能相关纠纷解决:在任何领域,纠纷都难以避免。但与人类不同,当人工智能出现问题时,找出原因往往更困难。例如,机器人快递员未能按时送达包裹,可能是系统故障、地址错误或遭受恶意攻击等原因。可解释人工智能能帮助我们找出问题所在,避免类似错误再次发生。
- 消除人工智能系统中的历史偏见:即使按照平等和包容原则构建的人工智能系统,也可能因继承历史数据中的偏见而存在问题。由于人工智能尤其是深度学习算法需要大量数据,而这些数据可能存在性别、种族等方面的偏见。可解释人工智能能帮助我们追踪模型异常输出的原因,若能获取数据的来源信息,就可以将有偏见的数据从数据集中剔除。
- 关键行业的应用:如果企业使用人工智能进行自动化数据驱动决策、预测分析或客户分析,稳健性和可解释性应成为核心价值。为了使人工智能系统更符合法规要求,企业可以利用领先软件提供商提供的工具包使人工智能本身具有可解释性。但如果使用的是多年前编写的软件,可能无法直接实现,此时可以请专家进行系统审计,分析业务流程并提供实施可解释人工智能原则的最佳建议。
可解释人工智能在提高人工智能系统的透明度、可靠性和可信任性方面发挥着至关重要的作用。随着人工智能在各个领域的广泛应用,可解释人工智能的需求也将越来越大。企业和开发者应积极采用可解释人工智能原则和方法,推动人工智能技术的健康发展。