AI伦理蓝图与食品安全风险评估的融合探索
在当今人工智能快速发展的时代,AI伦理问题备受关注。众多非机构背景下起草和发布的文件,为AI治理提供了多维度的视角。
跨学科伦理宪章
- 阿西洛马会议(Asilomar Conference) :2017年未来生命研究所举办的有益AI会议,即阿西洛马会议,是国际多利益相关方讨论AI伦理的早期典范。经过2.5天的辩论,会议得出了一份包含23条原则的清单。聚焦于原则6 - 18(“伦理与价值观”),可分为以下几类:
- 慈善原则 :原则14(“共享利益”)和15(“共享繁荣”)推动AI发展的集体利益。
- 问责原则 :原则9(“责任”)要求AI开发者和设计师在使用和滥用AI技术方面进行道德思考;原则10(“价值对齐”)规定AI应按人类价值观运行。
- 透明原则 :原则7(“失败透明”)和8(“司法透明”)规定系统在失败时应透明,并在运行时提供解释,不过司法透明仅适用于司法决策中的AI系统。
- 安全原则 :原则6(“安全”)要求AI系统运行时安全可靠;原则7(“失败透明”)从事后角度完善安全原则,确保可审查错误原因。
- 控制原则 :原则10(“价值对齐”)、16(“人类控制”)、17(“非颠覆”)和18(“AI军备竞赛”)鼓励开发能确保人类监督的AI系统,保障人类价值观。
超级会员免费看
订阅专栏 解锁全文
70

被折叠的 条评论
为什么被折叠?



