评估可信人工智能:采用评估清单
1. 评估清单概述
为了将七项关键道德要求付诸实践,相关机构提出了一份评估清单(试点版本),为每项要求的实际实施提供指导。此评估清单适用于直接与用户交互的人工智能系统,主要面向人工智能系统的开发者和部署者(无论是自行开发还是从第三方获取)。
人工智能系统具有应用特异性,不同情况会带来不同挑战和解决方案。例如,人工智能音乐推荐系统与提出关键医疗治疗方案的人工智能系统所引发的道德问题不同。因此,修订后的评估清单应根据系统运行的特定用例和上下文进行调整,还需探索额外的行业方法以补充更通用的横向框架。
这份评估清单经过了试点过程。2019 年 6 月 26 日,首次人工智能联盟大会正式启动试点,所有感兴趣的利益相关者都可参与并提供反馈。根据试点调查收到的反馈,最终于 2020 年 7 月 17 日发布了修订后的版本。
2. 基本权利影响评估(FRIA)
最终的可信人工智能评估清单(ALTAI)指出,在实践中应体现对基本权利的尊重,为此,在开发人工智能系统以及使用评估清单进行系统自我评估之前,应进行基本权利影响评估(FRIA)。该评估旨在评估已识别的风险(人工智能系统可能对基本权利造成的潜在侵犯)是否可以降低,或者是否因必要(成比例)而被正当化,以尊重他人的权利和自由。
已创建“基本权利检查清单”作为解决基本权利问题的方法,部分内容如下:
1. 哪些基本权利受到影响?
2. 所涉及的权利是否为绝对权利(不可受限制,如人的尊严和禁止酷刑)?
3. 正在考虑的各种政策选项对基本权利有何影响?是有益的(促进基本权利)还是负面的(限制基本权利)?
4. 根据所涉及
超级会员免费看
订阅专栏 解锁全文
49

被折叠的 条评论
为什么被折叠?



