可解释性的觉醒:理解人工智能模型的关键
1. 可解释性的必要性
在预测建模中,我们常常面临预测结果与理解预测原因之间的权衡。有时候,知道预测准确性就足够了,但在高风险环境中,我们可能需要为解释性付出预测性能下降的代价。准确的预测只能解决部分原始问题,而额外的解释性可以帮助从业者调试模型、探索潜在偏差或意外的模型学习。
1.1 知识需求
深度学习使全球研究人员能够发现远超人类认知范围的联系,主要帮助处理大量可靠数据的领域。然而,现在研究往往只关注结果和性能指标,但科学和社会不仅关注性能。在深度学习中,决策基于大量权重和参数,这些参数通常模糊且与现实世界无关,使得理解和解释深度模型的结果变得困难。可解释性有助于使算法与人类价值观保持一致,帮助人们做出更好的决策并增强对决策的控制。此外,理解模型可以让我们发现其缺陷,提高模型的准确性和可靠性,也是道德使用深度学习技术的关键部分。
1.2 受监管行业需求
深度学习技术的合法运营受到国家和国际层面的多项法规约束。研究社区与商业部门之间的差距阻碍了最新深度学习模型在一些传统上数字化转型滞后的行业(如银行、金融、安全和医疗等)的全面应用。这些行业法规严格,不愿采用可能危及资产的技术。解决可解释性需求时,必须考虑其带来的正负法律后果,这将为可靠的深度学习奠定基础。
1.3 可解释性共识
了解模型决策的原因可以帮助我们深入理解问题并解释模型失败的原因。通过解释模型的潜在特征交互,我们可以了解哪些特征主导了模型的决策政策,确保模型行为公平,并保证模型的问责性和可靠性。目前,关于可解释性深度学习(IDL)和测量技术尚未达成真正的共识。研究人员已尝试为基于推理的机
超级会员免费看
订阅专栏 解锁全文
1326

被折叠的 条评论
为什么被折叠?



