以可解释的方式管理客户关系
在当今的智能系统中,为人类用户提供决策解释以及理解人类如何解释自身决策,是至关重要的特性。这不仅有助于提高系统的可理解性,还能在多个方面发挥重要作用,如确定机器决策的合理性、辅助决策责任判定等。下面我们将深入探讨不同类型的解释方法及其应用。
1. 解释相关概念及重要性
为人类用户提供决策解释,以及理解人类如何解释自己的决策,是智能系统的重要特征。许多复杂的人类行为都与提供可接受且有说服力的解释相关。我们提出了一个计算框架,用于处理两种主要的解释来源:事实解释和结构解释。
事实解释较为传统,主要处理单个主张的可行性。而结构解释,也就是元解释,是为了基于结构相似性来形式化解释模式而引入的,例如“我这样做是因为在具有相似结构的冲突对话中人们会这样表现”。
目前,解释的概念在深度学习社区中变得相当模糊,任何对“为什么”问题的回答(除了“只是因为”)都被视为解释。但我们从常识推理的角度出发,将解释视为连接前提和假设的链条,使得关于假设的“为什么”问题能通过这个解释链得到完整回答。
解释感知计算的重要性在多项研究和系统中得到了证明。论证领域也积极为法律推理、自然语言处理和多智能体系统等领域做出贡献。我们区分了作为对话中事实推理链的解释和处理形式化对话结构(以图表示)的元解释,这两个层面的解释都通过论证来实现:解释处理对话中传达的单个主张,而元解释依赖于场景的整体论证结构。
AI系统可解释的主要原因如下:
- 提高人类可读性;
- 确定机器决策的合理性;
- 有助于决策责任判定,从而制定良好的政策;
- 避免歧视;
- 减少社会偏见。
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



