可信人工智能:伦理原则与基础权利
1. 人工智能发展的挑战与应对
人工智能正以前所未有的速度在全球范围内发展和应用,从智能手机到自动驾驶汽车、机器人和在线应用,其功能有望在未来成为众多商品和服务的标配。然而,这一技术也带来了新的重大挑战。算法决策可能基于有偏差、错误、不完整、不足或被网络攻击者操纵的数据,若不加思考地应用该技术,不仅会导致有问题的结果,还会使公民不愿接受或使用它。
为应对这些挑战,欧盟政策制定者选择坚守欧盟的文化偏好和更高的保护标准,以现有监管框架为基础,确保欧洲价值观成为创造信任环境的核心,从而实现人工智能的成功开发和使用。其中,“可信人工智能”被定义为包含三个要素,且这三个要素需在系统的整个生命周期内得到满足,具体如下:
|要素|描述|
| ---- | ---- |
|合法|符合所有适用的法律法规。欧盟拥有强大而平衡的监管框架,涵盖安全、产品责任、网络/系统安全和个人数据保护等多个方面。相关法律来源包括欧盟基本法、二级法、联合国人权条约、欧洲委员会公约以及各成员国法律等。|
|伦理|确保遵循伦理原则和价值观。法律有时可能跟不上技术发展的步伐,或者与伦理规范不一致。因此,人工智能系统不仅要合法,还应符合伦理标准,与伦理价值和规范保持一致。|
|稳健|从技术和社会角度来看都应具备稳健性。即使确保了伦理目的,社会也需要确信人工智能系统能够安全、可靠地运行,并采取了具体的保障措施来防止意外伤害。|
这三个要素相互关联、相互补充,共同构成了可信人工智能的基础。但在实践中,这些要素之间可能存在紧张关系,例如现有法律的范围和内容可能与伦理规范不一致。因此,社会有责任努力确保这三个要素共同促进可信人工智能的实现,政策制定者也
超级会员免费看
订阅专栏 解锁全文
20

被折叠的 条评论
为什么被折叠?



