实现可信人工智能:关键伦理要求的实施
1. 透明度
透明度要求与可解释性原则密切相关,涵盖人工智能系统相关要素的透明,包括数据、系统和商业模式。为确保人工智能系统的可追溯性,需对数据集、系统做出的决策以及产生这些决策的过程进行记录和详细文档化。这不仅能提高透明度,还便于识别人工智能决策出错的原因,促进算法决策过程的可审计性和可解释性。
此外,要确保开发可解释的人工智能系统。可解释性意味着能够解释人工智能系统的技术过程以及相关的人类决策,使人类可以理解、追溯和质疑人工智能系统的决策过程和实际决策。因此,人工智能系统应具备解释机器学习系统达成特定决策所使用逻辑的能力,这对于提供有效的补救措施至关重要。受人工智能系统决策不利影响的人有权基于易于理解的信息挑战系统结果,并要求解释决策是如何做出的,或者要求人工审核并做出最终决策。不过,可解释人工智能系统的开发和部署通常是在该系统可能对个人生活产生重大影响时才被要求。
同时,应向各利益相关者充分传达人工智能系统的能力和局限性。并且,人工智能系统应可被识别,不能向用户伪装成人类,以确保用户知晓自己在与人工智能系统交互以及谁对该系统负责。此外,当自动化处理对人类产生重大影响或产生法律效果时,人类有权不接受仅基于自动化处理的决策。
以下是透明度要求的关键要点总结:
| 要点 | 具体内容 |
| — | — |
| 可追溯性 | 记录数据集、决策及决策过程 |
| 可解释性 | 开发能解释决策逻辑的系统 |
| 信息传达 | 向利益相关者传达系统能力和局限性 |
| 系统识别 | 系统不能伪装成人类 |
| 人类权利 | 人类有权不接受仅基于自动化处理的决策
超级会员免费看
订阅专栏 解锁全文
25

被折叠的 条评论
为什么被折叠?



