迈向算法社会可接受性与工业 5.0 以人为中心的 AI
1. 以人为中心的 AI 相关概念
在人工智能领域,可审核性等概念源自工程学。可审核性与透明度不同,透明度只是通过获取算法源代码来理解算法结果的一种(非常不完善的)方式。可审核性描述了对算法进行分析和实证评估的实际可行性,其更广泛的目标不仅是为算法的预测提供解释,还包括根据其他标准(性能、稳定性、数据处理)对其进行评估。
专家们仍在争论“可解释性”和“可解释度”之间的区别:“可解释性”通常与对算法工作原理的技术和客观理解相关(因此适用于审计工作的视角),而“可解释度”似乎更多地与不太技术性的论述相关(因此更适合面向消费者或个人)。算法可解释性的质量也取决于上下文。为了解释算法的工作原理以及它为何做出这样或那样的决策,可以考虑多个解释层次,以考虑接收者的性质(专业人员、客户、公众)。
2. 公民参与程序
算法决策对社会可能产生重大影响,因此必须纳入公共辩论。美国学者指出,在金融安全领域,立法者通过 2002 年的《萨班斯 - 奥克斯利法案》建立了举报人程序,以鼓励私人行为者确保法律的正确实施。在人工智能领域,建议依靠算法用户建立讨论程序,而不是让他们去揭发缺点。
这些讨论程序必须涉及所有利益相关者,包括各学科专家、政策制定者、专业人员、非政府组织和公众。在进行这些讨论时,必须严格询问使用算法解决方案的合法性这一初步问题。在某些情况下,如果明显侵犯基本权利(如公平审判和无罪推定),原则上可以考虑禁止使用算法。
目前有两个正在进行的项目值得关注:CITICODE 项目和 FARI 研究所,它们都是由布鲁塞尔计算机科学家 Hugues Bersini 发起的公民参与实验
超级会员免费看
订阅专栏 解锁全文
29

被折叠的 条评论
为什么被折叠?



