实现可信人工智能:关键伦理要求解析
1. 可信人工智能的关键要求概述
要实现可信的人工智能,需满足七项关键要求,这些要求相互关联、相互补充,它们分别是:
1. 人类能动性与监督
2. 技术稳健性与安全性
3. 隐私与数据治理
4. 透明度
5. 多样性、非歧视与公平性
6. 环境与社会福祉
7. 问责制
这些要求在人工智能系统的整个生命周期中都应得到实施和评估,不过其在不同领域和行业的应用可能存在潜在的紧张关系,且具体实施需根据特定应用来确定。
2. 人类能动性与监督
基于尊重人类自主性的伦理原则,人工智能系统应尊重人类的自主性和决策。具体可通过以下三项措施来保障这一要求在实践中得以体现:
- 进行基本权利影响评估 :人工智能系统既能促进基本权利,也可能对其产生影响。当存在基本权利风险时,应在系统开发前进行基本权利影响评估,以确定这些风险是否可降低或被证明在民主社会中是必要的。同时,需建立机制以接收关于特定人工智能系统可能侵犯基本权利的外部反馈。
- 确保适当的人类参与 :用户应获得足够的知识和工具,以便能够:
- 以满意的程度理解和与人工智能系统进行交互;
- 根据自身目标做出更明智的自主决策;
- 在可行的情况下,合理地自我评估或挑战人工智能系统。
此外,人类不应受到人工智能系统的欺骗或操纵,终端用户有权不接受仅基于自动处理做出的决策(当该决策对用户产生法律影响或显著影响时)。
- 保障人类监督
超级会员免费看
订阅专栏 解锁全文
971

被折叠的 条评论
为什么被折叠?



