以人为本的人工智能治理:挑战与公民参与之路
在当今科技飞速发展的时代,人工智能(AI)正以前所未有的速度融入我们的生活。然而,AI系统在带来便利的同时,也引发了一系列关于人权保护的问题。本文将深入探讨AI治理中人权保护面临的挑战,以及公民参与如何成为实现社会正义的关键工具。
1. AI对人权的潜在影响
机器学习算法所使用的数据集可能存在偏差,这些偏差会对基于特定指标分类的人群产生歧视性影响。当这些数据集用于二次目的时,它们与产生时的背景脱节,从而导致系统性问题。例如,在对具有共同特征的大规模人群产生集体影响时,我们需要在制度层面记录这些系统性问题,并找出社会偏见的根源以进行补救。
一旦我们意识到AI工具对整个人口的影响,仅依靠个人层面的责任模式显然是不切实际的。因为AI的影响是社会性的,通过自动化变得具有系统性,所以责任应该是集体的。要理解这种集体维度,我们必须全面、整体地看待人类,首先考虑其社会身份,并根据其在社会中的地位来确定其身份。同时,考虑有助于定义社会身份的社会生态系统也至关重要,这能帮助我们确定算法使用对不同群体的影响程度。然而,目前用于解决AI系统人权影响的监管工具中,这种集体维度并未得到足够明确的体现。
2. 人权保护与AI规范方法的脱节
随着社会对AI系统歧视倾向的认识不断提高,行业和政府都制定了旨在确保AI系统在设计、开发和部署过程中考虑人权的规范框架。然而,以人权为导向的治理框架与真正保护人权之间存在重要区别。目前用于解决AI人权影响的规范框架未能为公民提供具体的保护。
这些框架通常有以下三种形式:
- 伦理准则 :伦理准则提出了在创建AI系统时应
超级会员免费看
订阅专栏 解锁全文
164

被折叠的 条评论
为什么被折叠?



