欧盟人工智能法案中的高风险禁止实践解析
1. 禁止的人工智能实践概述
欧盟委员会提议的人工智能法案旨在禁止那些可能对人类行为造成扭曲,并导致身体或心理伤害的人工智能系统。这些禁止的实践涵盖了市场投放、投入使用或使用特定的人工智能系统,主要包括以下几类:
- 用于不良行为影响的人工智能系统
- 提供社会评分的人工智能系统
- 大规模监控相关的人工智能系统
2. 用于不良行为影响的人工智能系统
2.1 禁止的具体情况
这类系统使用潜意识组件和技术,或者利用特定群体(如儿童和老年人)由于年龄、身体或精神残疾等导致的脆弱性,意图实质性地扭曲一个人的行为,并可能对该人或他人造成身体或心理伤害。以下是具体的禁止情况:
- 部署个人无法感知的潜意识组件和技术的人工智能系统。
- 利用特定群体脆弱性的人工智能系统。
2.2 各方观点与争议
2.2.1 消费者和非盈利组织观点
消费者、民间社会和其他非营利组织认为,人工智能驱动的操纵和剥削不仅会造成身体或心理伤害,还可能导致物质(经济)和社会危害,甚至损害多项人权、民主和法治。此外,“预期使用”的措辞排除了人工智能的“潜在使用”或“可预见使用”,因此他们主张取消证明意图的要求。
2.2.2 企业和组织观点
企业和代表企业的组织同意委员会将第 5(1)(a) 和 (b) 条的使用限制在最危险和具有威胁性的人工智能使用上的做法,但他们强调需要进一步澄清“潜意识技术”和“实质性扭曲行为”的定义,否则可能会阻碍更多原本有益的人工智能应用。
欧盟AI法案高风险禁止实践解析
超级会员免费看
订阅专栏 解锁全文
33

被折叠的 条评论
为什么被折叠?



