机器学习决策规则的法律挑战与应对
1. 法律与机器学习的框架力量
法律和法治的核心在于,我们不应依赖掌权者(如大型科技公司)或权威机构(如国家)的善意。伦理不应成为转移对法律强制力关注的手段。竞争法和宪法旨在建立制衡力量,确保决策结果的承受者或受益者能对决策过程产生实际影响。从某种意义上说,这关乎谁有权决定公民和消费者所遵循的选择架构,即谁能决定环境的设计以及我们享有自主权的程度。
在机器学习研究设计的过程中,所做的选择会影响研究的输出,进而塑造我们所设计环境的选择架构。如今,计算机科学领域的许多会议都致力于“公平计算”或“隐私设计”,旨在预防或应对机器学习应用中产生的不良偏差。然而,只要这些努力停留在伦理层面,就很难就公平或隐私等概念达成明确的定义,因为这在很大程度上取决于所做的假设和伦理偏差对定义的影响。此时,法律就需要发挥作用,对公平等概念进行具有法律效力的定义。
机器学习应用具有框架力量,它会根据出资者的意愿重新配置我们的选择架构。这种框架力量依赖于技术的力量,特别是自我执行的代码、巧妙构建的界面和复杂的后端系统,它们决定了我们能做出哪些选择以及会产生哪些无形的后果。技术的力量正逐渐成为法律力量的强大竞争对手,产生数据和代码驱动的“规范性”,而公民和消费者可能并未意识到这一点。
法律的文本驱动规范性和法治是通过法律效果来运作的,最终基于奥斯汀所说的“言语行为”的施为效果。文本驱动的规范性依赖于书面和非书面言语行为的施为性质,其生成性和不可避免的开放性使其易于解释和争论。虽然文本驱动的规范性需要确定性来实现法律的稳定性,但它也确保了法律规范能够根据不同情况进行调整和灵活应用。有人认为,机器学习的应用必须置于法治之下。机器学习研究设计中的框架以及设计选择所
超级会员免费看
订阅专栏 解锁全文
1102

被折叠的 条评论
为什么被折叠?



