以人为本的人工智能治理与儿童权益监管沙盒
以人为本的人工智能治理
将人权原则融入人工智能治理,本质上是一个社会正义问题。真正以人为本的人工智能治理,不能仅关注技术层面,还需应对滋生算法偏见的现有社会结构。
为解决算法不公正问题而制定的规范解决方案,必须纳入受该技术影响的公民的视角。然而,仅思考公平设计或更具社会敏感性的部署实践是远远不够的。原因在于,这种方法仅专注于开发解决人工智能影响的方案,以保护公民获得特定结果的权益,却忽视了定义这些结果的过程的重要性。
为找到有效的解决方案,我们必须将当前的重点转向确定能让公民参与定义算法工具如何部署的过程。公民应被赋予民主空间,参与这些工具的治理,包括定义解决方案和决定这些技术如何塑造他们的生活。这一过程需要使用基于人权语言,以公民能够理解的方式进行,这种语言应基于他们的生活经验,即不公正的语言,其核心是人类尊严的概念,涵盖人类身份的社会、经济和文化层面,同时理解公民所经历的歧视性社会互动。
只有让公民参与治理和决策过程,我们才能确定更符合社会现实的结果。因此,至关重要的是将我们对人工智能治理的方法重点从风险、结果和特定结果的权益转移开,转而专注于开发包容性的过程,通过这个过程我们可以共同定义我们的算法未来。尽管这样做可能会增加人工智能治理的复杂性,甚至导致一些不确定性,但维持现状在社会层面是不可接受的。允许公民在人权框架的基础上参与定义人工智能如何塑造他们的生活,仍然是促进社会正义的最有效方式。如果我们专注于过程,适当的解决方案将在适当的时候显现出来。
以下是相关要点总结:
|要点|详情|
| ---- | ---- |
|核心问题|人工智能治理需融入人权原则,解决社
超级会员免费看
订阅专栏 解锁全文
102

被折叠的 条评论
为什么被折叠?



