机器学习可解释性的未来走向
1. 机器学习可解释性的现状
缺乏可解释性是阻碍人工智能应用的重要因素之一,这也是 50 - 90% 的人工智能项目未能成功的部分原因,另一部分原因是未遵守公平性、问责制和透明度(FAT)原则导致的伦理违规。可解释机器学习(iML)有潜力引领整个机器学习领域,因为它能通过相应方法助力实现这两个目标。
目前,iML 的关注度和产出在不断增加,主要体现在可解释人工智能(XAI)领域。在科学界,iML 仍是最常用的术语,但在公众场合,XAI 更占主导。不过,对于机器学习从业者,即使是行业内的人员,在使用 XAI 这个术语时也应谨慎。“可解释”意味着完全理解,而“可解释性”为误差留有余地,这在讨论模型尤其是复杂的黑盒模型时是必要的。此外,AI 在公众认知中要么被视为万能药,要么被视为危险物,“可解释”一词会让认为 AI 是万能药的人更加自负,也可能让认为其危险的人稍感安心。
随着机器学习开始走向标准化、规范化、整合化,并融入众多其他学科,可解释性也将在其中占据重要地位。机器学习正逐步取代各行业的软件,更多模型被部署到云端,人工智能物联网(AIoT)的发展会使这一情况加剧。由于部署并非传统机器学习从业者的专长,机器学习越来越依赖机器学习运维(MLOps)。自动化的发展需要更多工具来构建、测试、部署和监控模型,同时也需要对工具、方法和指标进行标准化。自 2017 年起,有了开放神经网络交换(ONNX)这一开放的互操作性标准,目前国际标准化组织(ISO)正在编写二十多项 AI 标准(其中一项已发布),部分涉及可解释性。
机器学习可解释性虽发展迅速,但仍落后于机器学习本身。一些解释工具已融入云生态系统,但尚未完全实现自动化、标准化、整合化和规范化,
超级会员免费看
订阅专栏 解锁全文
2108

被折叠的 条评论
为什么被折叠?



