概率模型的问责、补救与食品安全数据治理
1. 责任、问责与责任归属
在食品安全系统中,公平性概念明确后,需将其置于该系统中进行解读。不公平决策往往是欧洲食品安全局(EFSA)科学意见的认知结果,即便决策无歧视性,但不准确或“糟糕”,这一认知链条依然成立。基于机器学习算法支持起草的意见所做出的不公平决策,可能会产生值得探讨的道德和法律影响。
当前,问责差距是一个重大挑战,也是近期讨论的焦点。一方面,自主机器学习系统的部署可能导致无人(自然人或法人)对系统的使用负责,这一挑战与机器学习系统的透明度、公平性和可解释性相关,会给民主社会带来难以忍受的局面。另一方面,有人主张机器学习系统可达到一定的自主性,从而应对其使用负责,甚至可能承担刑事责任。
不过,后一种观点在此并不适用。尽管自主性是机器学习系统部署的前提,但它们对人类的独立程度尚不足以造成“问责差距”风险。在决策过程中,人类的监督程度仍然很高,自主决策在技术上并不可行。因此,应采取更以人为本的方法,将机器支持决策的法律后果归咎于自然人或法人。
风险评估者(EFSA)与风险管理者(欧盟委员会)之间的关系既是认知上的,也是法律上的。在机器学习算法出现前,流程为:数据→风险评估者→风险管理者;EFSA从数据中提取知识并传达给委员会用于决策,信息是认知主体对数据的解读,证据是证实信息准确性的陈述,二者之和为提取的知识,即数据→知识(信息 + 证据)→决策。
在机器学习时代,EFSA的证据基于手动或机器学习算法从数据中提取的信息,流程变为:数据→机器学习算法→风险评估者→风险管理者。从认知角度看,不再有确定的知识,从确定性模型向概率模型的转变意味着提取的信息只是对现实的近似。算法提取信息,风险评估者对
超级会员免费看
订阅专栏 解锁全文
2789

被折叠的 条评论
为什么被折叠?



