欧盟人工智能法案中的高风险禁止实践解析
在当今数字化时代,人工智能(AI)技术的快速发展给社会带来了诸多便利,但也引发了一系列关于伦理、法律和人权的问题。欧盟在人工智能监管方面一直处于前沿,其提出的人工智能法案(AI Act)旨在平衡技术创新与基本权利保护。本文将深入探讨该法案中关于高风险禁止实践的相关内容,特别是社会评分、预测性警务系统和实时生物识别系统的使用规定。
社会评分范围的扩大
欧盟委员会最初提出的人工智能法案对社会评分的禁止范围相对较窄,主要限制在用于评估自然人“可信度”的社会评分。然而,理事会的文本删除了这一限制,将禁止范围扩大到私人行为体,不再局限于公共部门。这一举措意味着更多的社会评分实践将受到监管,以防止对个人的不利或歧视性待遇。
例如,公共或私人机构基于个人的社会行为、已知或预测的个人特征对自然人进行评估或分类,并根据社会评分对某些自然人或群体进行不利或不公平的对待,这种行为将被禁止。不过,需要注意的是,理事会的文本也明确指出,这一禁止不应影响符合法律规定的、为特定目的进行的合法评估实践。
预测性警务系统的禁止提议
欧洲议会联合报告提议将使用人工智能驱动的预测性警务系统列入禁止实践清单。这一举措得到了民间社会组织的支持,因为这些系统被认为违反了人类尊严和无罪推定原则,并存在歧视风险。
预测性警务系统通过对个人进行风险评估,预测其犯罪或再犯罪的可能性,从而影响警务和刑事司法决策。然而,这些系统所使用的数据往往反映了历史、制度和社会层面的歧视,导致某些群体被过度监控和不公平对待。例如,种族化的人群、社区和地理区域在欧洲往往面临过度警务和不成比例的监控、询问、拘留和监禁。
尽管这一
超级会员免费看
订阅专栏 解锁全文
25

被折叠的 条评论
为什么被折叠?



