裁决与难以理解的决策规则及人工智能的影响
难以理解的决策规则下的裁决挑战与应对
在决策系统中引入基于机器学习的难以理解的工具是一个复杂的问题,因为不同决策场景下的权衡各不相同,没有通用的解决方案。因此,决策系统设计者必须直面这些权衡,而不是回避它们。以下是应对决策工具难以理解所带来问题的一些通用方法:
1. 明确评估标准 :规则制定者应明确自动化决策工具要评估的标准,并尽可能清晰地向裁决者解释自动化评估的含义和依据,包括结果变量的定义、其与真实决策标准的代理关系性质,以及模型中使用的特征的身份和定义。
2. 提供决策指导 :规则制定者要为裁决者提供具体指导,说明他们应评估哪些决策标准,以及如何将这些标准与自动化决策工具的输出相结合以做出决策。
3. 明确责任范围 :规则制定者需明确并解释裁决者在评估决策对象特征数据可靠性方面的责任范围。当裁决者负责审查数据时,规则制定者应制定评估程序,并在特征数据不可靠时为裁决者提供替代决策标准,或者解释裁决者应如何确定特征数据误差或不确定性对自动化决策工具输出的影响。为此,数据科学家应开发或调整技术方法,以确定输入特征数据的不确定性如何影响决策工具的输出。
4. 提供培训和说明 :裁决实体应为裁决者提供关于裁决各方面的培训、指南和类似的内部说明,包括如何将自动化决策工具的输出与其他决策标准相结合的方案。
5. 解释决策过程 :在解释决策结果时,裁决者不仅要说明他们如何评估分配给他们的决策标准,还要说明他们如何将这些标准与自动化工具的输出相结合以做出
超级会员免费看
订阅专栏 解锁全文
25

被折叠的 条评论
为什么被折叠?



