超连接世界中的隐私要求与AI监管
1. 设计驱动的数据隐私保护
随着5G技术的日益普及,各实体有责任确保其使用方式尊重用户的数据隐私权利。《通用数据保护条例》(GDPR)确立了设计与默认数据保护原则,以及开展数据保护影响评估(DPIA)的义务,以确保采取适当的技术和组织措施,降低对用户数据隐私权的潜在风险。
在处理个人数据时,并非所有操作都必须进行DPIA,仅高风险处理活动需要。当人工智能技术涉及个人数据处理时,必须开展DPIA,以应对人工智能系统的固有风险,确保无歧视、公平、公正和安全。人工智能相关方需对人工智能系统的设计和实施负责,确保在其整个生命周期内保护个人数据。
1.1 明确数据处理角色
参与人工智能系统开发和部署的实体,首先要分析自身在数据处理链中的角色。GDPR中的“控制者”“联合控制者”和“处理者”是功能性概念,旨在根据各方实际角色分配责任。
- 控制者 :通常决定处理的目的和方式,即便不直接访问被处理的数据,也可被认定为控制者。在人工智能系统中,若实体能决定机器学习算法类型、特征选择、模型参数、评估指标和损失函数、训练数据来源和性质、处理目的、目标变量以及数据保留时长等,则可被指定为控制者。
- 处理者 :必须是与控制者独立的实体,根据控制者的指示处理个人数据。处理者在一定程度上有自主决策权,如选择编程语言和代码库、配置存储解决方案、优化学习算法以减少计算资源消耗、确定模型部署细节以及设计图形用户界面等。
当人工智能模型在客户使用过程中不断升级和优化时,角色划分可能不那么清晰。若人工智能服务提供商为客户隔离特定模型,客户可成
超级会员免费看
订阅专栏 解锁全文
722

被折叠的 条评论
为什么被折叠?



