不可解释的自动化决策工具在裁决中的应用与挑战
1. 机器学习模型作为自动化决策工具
近年来,利用机器学习开发自动化决策工具的潜力引发了人们对各类决策系统自动化的广泛关注,同时也引发了关于其不可解释性和解释需求的讨论。
1.1 基于机器学习的决策工具的前景与局限
监督式机器学习是决策应用中常用的方法,它利用“大数据”训练集,将特征数据映射到众多个体的结果变量数据。使用机器学习模型作为决策工具时,结果变量需作为相关决策标准的代理。机器学习优化技术能自动检测训练数据中特征与结果变量之间的关联模式,并将这些模式拟合到复杂的非线性模型中。模型创建后,可根据个体特征数据预测其结果变量值。
然而,模型预测的有效性取决于其对训练数据的拟合程度以及训练数据对实际应用中各类情况的代表性。这两个标准往往相互矛盾,过度拟合训练数据的模型难以推广到新的案例。
从预定规则和灵活标准的权衡来看,任何自动化决策工具本质上都在执行规则。但机器学习模型有望在两个方面改进传统规则:一是通过大量训练案例发现经验模式,这可能是规则制定者之前忽略的;二是考虑大量特征,生成比传统规则更细致或“个性化”的规则。
不过,机器学习模型也存在诸多问题。其替代标准式裁决的潜力至少有两个重要局限:一是依赖“大数据”训练集,收集足够大且准确的数据困难且昂贵,常依赖“现有数据”,这可能导致特征集和结果变量受限于数据收集情况,且难以获得真正关注的决策标准数据;二是可推广性问题,训练数据可能不完整、有偏差或无法代表新的事实场景,模型难以应对新情况和社会变化。
1.2 不可解释性、准确性与机器学习
机器学习模型的不可解释性源于其从特征输入到
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



