欧盟人工智能监管框架:现状、挑战与未来展望
1. 欧盟产品安全立法与人工智能责任分配
欧盟产品安全立法通常将责任分配给投放市场的产品生产者,包括所有组件,如人工智能系统。然而,如果非生产者在产品投放市场后添加人工智能,规则可能会变得不明确。此外,欧盟产品责任立法规定了生产者的责任,而供应链中其他方的责任则由国家责任规则管辖。
2. 新兴数字技术对安全概念的挑战
新兴数字技术的主要特征可能导致危害风险,并对现有的欧盟产品安全框架构成挑战。基于人工智能的产品和系统具有以下基本特征:
- 与其他人工智能系统和非人工智能系统的连接性
- 自主性(使用机器学习和深度学习技术的日益自主的人工智能系统)
- 对外部数据的依赖性
- 易受网络安全漏洞的影响
- 复杂性
- 复杂的价值链(包括参与人工智能系统生命周期的众多参与者)
这些特征可能导致欧盟立法目前未明确解决的风险,主要与网络威胁、安全风险(如与人工智能新应用相关的家庭电器)或连接中断风险有关。这些风险可能在产品投放市场时出现,也可能在产品使用过程中因软件更新或自我学习而出现。
例如,物联网和人工智能支持的产品和服务包括有形部件/设备(传感器、执行器、硬件)、不同的软件组件和应用程序、数据、数据服务(即收集、处理、整理、分析)以及连接功能。各种组件、设备和产品可以集成并相互影响其功能。
连接性是越来越多产品和服务的核心特征,新兴数字技术的连接中断风险可能导致安全和保障方面的新挑战。如果在设计、制造或运营阶段结合不良的安全措施,连接功能可能会损害产品的安全性,并导致严重的安全漏洞。损坏的数据(例如,由于连接问题或被黑
超级会员免费看
订阅专栏 解锁全文
39

被折叠的 条评论
为什么被折叠?



