探索算法公民身份与治理的新路径
自动化决策服务的民主赤字与应对策略
当前,多数支持自动化决策的服务存在民主赤字问题,这些服务是未来智慧城市和算法治理的基础。它们的协议和基础设施以效率取代了合法性,而非支持定义线下非数字机构(规范、法律和法规)的民主制度和程序。算法中存在的偏见和不公正导致了“问责差距”和“人类行为者的责任缺失”。为了应对这一问题,在追求新基础设施效率的同时保障合法性,我们需要将治理考量融入原型设计过程,并允许在权力、利益、兴趣和所有权等问题上产生冲突。
除了一些旨在规范人工智能、机器学习算法和区块链系统的干预措施和框架外,还存在两种策略。一种是将价值观和法规转化为代码和数据,如隐私设计、社会参与循环和对抗性公共人工智能系统提案。另一种“治理设计”策略则与试图将法规与代码分离的伦理框架和策略不同,它强调通过公共机构或独立机构进行监督,包括法律、监管监督、审计和行业标准,或与社区合作的“社会许可”,甚至是“人民委员会”。
监管沙盒为理想的伦理框架和流行的“设计驱动治理”或“价值敏感设计”倡议提供了第三种实验性选择。沙盒通过将审议与同时处理法规和代码的实验相结合,解决了算法治理和自动化的结构性挑战,而不是将民主价值观和法规简单地转化为代码,也不是仅仅依赖外部公共机构的监督。它支持在原型上与自动化和基础设施进行混合、战术性和情境性的互动。
作为用户、利益相关者和公民塑造未来
“设计驱动治理”(代码)和“基于风险的政策方法”(通过法规和禁令)的极端做法会导致权力的任意行使和治理与技术合法性的丧失。为了支持更透明的决策以指导未来服务,我们创建了一个让公众参与代码和法规制定的环境,并在平衡原则与规则实施的同时支持审计。2019 年和
超级会员免费看
订阅专栏 解锁全文
19

被折叠的 条评论
为什么被折叠?



