人工智能高风险系统分类与善益原则探讨
1. 高风险人工智能系统的界定
拟议的人工智能法案第三章创建了高风险人工智能系统的单独层级,并针对那些对自然人的健康、安全或基本权利造成高风险的人工智能系统制定了具体规则。依据风险评估方法,这些高风险人工智能系统在欧洲市场的准入将受到限制,需实施特定控制措施以确保安全使用,并需符合某些强制性要求和进行事前合规评估。
该委员会认为,人工智能系统可能对人的健康和安全产生不利影响,特别是当这些系统作为产品的组成部分运行时。在评估人工智能系统是否为高风险时,其对《宪章》所保护的基本权利造成的不利影响程度尤为重要,这些权利包括人的尊严权、私人和家庭生活受尊重权、个人数据保护权等。此外,儿童在数字环境中的特定权利以及高水平环境保护的基本权利在评估人工智能系统可能造成的危害严重程度时也应予以考虑。
然而,气候变化人工智能组织(CCAI)指出,拟议的人工智能法案虽在第28条中承认环境保护是影响人工智能应用是否应被视为高风险的基本权利之一,但表述主要提及对个人直接健康和安全的影响,未明确提及人工智能可能对环境保护基本权利造成负面影响的一些紧迫例子,如温室气体排放和气候变化脆弱性。CCAI建议修改相关句子,强调在评估人工智能系统造成的危害严重程度时,应考虑其对气候变化应对能力的影响。
2. 利益相关者的批评
众多利益相关者,主要包括消费者、民间社会和其他非营利组织,批评委员会对“高风险”类别的定义过于狭窄。例如,欧洲消费者组织(BEUC)指出,目前考虑的风险仅限于健康、安全和基本权利保护,忽略了基本消费者权利、社会影响、对民主和法治的影响、环境影响以及潜在的经济危害。像用于评估某人健康或汽车保险资格或保险费用的人工智能
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



