AI伦理中的权力与自动化挑战

AI与权力:自动化、中心化与规模化的伦理挑战

将AI伦理从可解释性与公平性扩展到赋权与正义

随着ChatGPT4、Bard和Bing Chat等新一代大型语言模型的发布,原本对AI伦理不感兴趣的朋友也开始向我提问。这些模型不仅登上头条新闻,更引发了广泛讨论。要理解新型AI应用的风险,首先需要掌握几个核心概念。通过多年研究算法系统致害机制,我在2021年底曾用20分钟阐述AI伦理的关键理念——这些概念在新一代语言模型问世的今天显得愈发重要。

过去十年间,可解释性(让计算机解释输出结果的生成逻辑)和公平性/偏见(解决算法在不同群体间准确率差异)等议题在AI领域和媒体中获得较多关注。部分计算机科学家和记者止步于此,认为能解释决策逻辑的程序或在浅肤色男性与深肤色女性间保持相同准确度的程序就必然符合伦理。虽然这些原则很重要,但仅靠它们并不足以应对或预防AI系统带来的危害。

可操作性救济

单纯的可解释性并不足够。以贷款审批算法为例,人们真正关心的不是“为什么拒绝我的贷款”,而是“我需要改变什么才能获得贷款”。解释必须具有可操作性——例如以种族为由拒贷就属于歧视性解释。影响人们生活的决策必须包含救济机制,即伯克·乌斯滕提出的“可操作性救济”。

典型案例是美国某州用于确定贫困人群医疗福利的算法。代码漏洞导致脑瘫患者福利被错误削减,塔米·多布斯因此失去协助起床、早餐等基本生活护理服务。她需要的不仅是解释,更是改变决策的救济机制。最终错误通过漫长诉讼才得以揭露,这种机制设计显然存在严重缺陷。

自动化系统常在没有错误识别和修正机制的情况下实施。人权观察组织关于欧盟社会福利系统自动化的报告显示,多国出现错误案例却无明确处理途径。法国某食品福利算法在至少6万起案例中出现错误,甚至有案例管理员承认系统漏洞却无权恢复福利。

可争议性

可争议性要求将质疑和反对结果的机制内置到算法系统中,而非事后补充。在与某机构的合作中,我们提出“增强机器学习”概念——不同于端到端自动化的自动化机器学习,而是思考人类擅长领域,将人类优势融入系统设计。人机协作的最佳方式值得深入探索。

公平性与偏见

虽然公平性和偏见问题需要关注,但仅此并不足够。性别阴影研究显示,某中心、某机构等企业的商业计算机视觉产品对女性准确率低于男性,对深肤色人群准确率低于浅肤色人群,其中深肤色女性准确率最低仅65%。有人肤浅地认为只需增加深肤色女性训练数据即可解决,但问题远不止于此。

无论生效与否皆具危害性

美国多市警方使用面部识别技术识别抗议警察种族主义的黑人群体。无论技术是否准确,这种应用本身已构成伦理问题——误捕会破坏人生,正确识别则威胁公民权利。蒂姆尼特·格布鲁博士指出:“人们常讨论跨群体性能均衡的偏见,却忽视任务是否应该存在、由谁创建、部署给哪些群体、数据归属及如何使用等权力问题。”

规模化运作

澳大利亚“机器人债务”项目通过自动化系统为数十万人制造非法债务。自动化将债务发放量从每年2万例激增至每周2万例,增幅达50倍。这种用自动化技术大规模使穷人负债的模式令人不安。

权力中心化

机器学习常导致权力中心化:缺乏救济机制和错误识别方式(如医疗福利案例);低成本大规模部署(如机器人债务);大规模复制相同偏见或错误。自动化系统还可用于逃避责任——在医疗软件漏洞案例中,算法创建者通过私营公司赚取版税却推诿责任,政策制定者则归咎于实施人员,形成无人担责的恶性循环。

反馈循环

当预测结果反过来影响数据时会产生反馈循环。机器学习模型不仅编码偏见,更会放大偏见——多项研究表明基于偏见数据训练的模型可能比训练数据本身更具偏见。

受影响群体

医疗案例中,福利被错误削减者立即发现问题却无法获得确认或解决。缅甸 genocide 中某社交平台的“决定性作用”也非突发事件——自2013年起就有人警告该平台被用于煽动暴力和贬损少数民族,但2015年初仅雇用了2名缅语合同工,当年仅增聘2人,与用户规模完全不成比例。

最受系统影响的群体往往最早发现问题,却缺乏有效预警渠道,也最了解应对伦理风险所需的干预措施。确保受影响群体拥有参与渠道和权力至关重要。

实践资源

2020年ICML机器学习参与式方法研讨会强调系统设计者比受影响个体拥有更大权力,呼吁采用更民主、合作和参与式的方法。某大学应用伦理中心提供技术伦理工具包,其中“扩展伦理圈”工具建议定期梳理系统直接/间接影响者,审视未经咨询即假设的技能经验和价值观。某大学技术政策实验室的《多元声音指南》则提供组建代表性不足群体小组的实践指导。

数据非砖石,乃待关怀之人

总之,可解释性不足,需要可操作性救济和可争议性;公平性不足,需要正义。最受影响者需要参与渠道和权力。解决方案包括:

  • 建立快速识别、报告和处理错误的机制
  • 提供及时有效的申诉渠道
  • 咨询常被忽视的声音(非象征性)
  • 设计包含可争议性的产品流程和技术
  • 提升招聘、留任和晋升的多样性(含国籍和语言)

正如AI研究者伊尼奥卢瓦·黛博拉·拉吉所言:“数据非待堆砌之砖、待钻探之油、待开采之金、待收割之机,而是待被看见、或许被关爱、理应受照料之人。”
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值