17、可信的公共部门人工智能:研究进展与未来议程

可信的公共部门人工智能:研究进展与未来议程

1. 引言

全球许多政府和公共服务机构已在利用人工智能(AI)技术,预计全球公共部门运营和服务(简称“AI - PS”)对AI的使用将持续增加,至少49个国家已推出或计划推出国家AI战略,其中不少涵盖了公共部门的应用途径。向AI - PS的转变面临诸多挑战,包括获取实施AI技术所需的资金和人力资源、用法律法规规范自主智能系统的使用、解决机器判断和道德困境相关的伦理问题,以及实现社会对AI - PS的接受和信任。

本文聚焦于向AI - PS转变过程中的一个挑战:建立社会对AI - PS的信任。首先阐述在公共部门促进人类对AI的信任或构建可信AI的重要原因,接着通过对Scopus和Web of Science(WoS)两大权威数据库中期刊文章的系统文献综述(SLR),探讨科学研究在这方面的进展,找出推进该领域研究的方向,并提出未来研究的命题。

在展开讨论前,先明确几个关键术语。“信任”指对AI驱动系统的信心,基于其完成预期工作和展现良好行为的可能性;“公共部门”是承担核心政府职能(如立法、执法和提供公共服务)的实体;“社会对AI - PS的信任”指社会广泛利益相关者的信任,包括使用AI提供公共服务的公民、在公共服务中使用AI系统的一线服务提供者,以及决定是否部署AI的政策制定者和管理者。

2. AI - PS需值得信任的公共部门独特原因

在探讨公共部门特有的原因之前,先了解两个通用原因。人机交互研究表明,人类对机器的信任与使用意愿呈正相关,信任也是移动商务支付服务和电子政务平台等自动化服务使用的预测因素。这表明,从实用角度看,促进社会对AI的信任有助于其在社会中广泛接受和应用。

另一个关键原因是伦理方面的。算法辅助决策并非无偏差和缺陷,当AI决策辅助系统处理包含狭隘人类价值观和偏见的数据时,会产生有偏差的输出,导致对受决策影响人群的系统性和无意歧视。而且,机器学习基于相关性而非因果关系,AI可能做出错误决策。因此,AI系统必须值得信任,避免因有偏差或欺诈性输出损害人类福利和个人权利,算法辅助决策也应具备可解释性。

公共部门有两个独特原因要求AI必须值得信任:
- 公共部门活动的强制性 :公共部门与私营部门的区别之一在于其活动具有“强制性”“垄断性”和“不可避免性”。例如,在司法、执法和政策制定等核心政府职能中使用AI,会对公民产生强制性影响。美国一些州法院用AI生成再犯风险评分,世界各地警方采用AI面部识别技术执法,比利时利用机器学习系统辅助政策制定。此外,公共部门使用AI驱动的聊天机器人和虚拟助手也会对公民产生广泛而强制的影响,未来与人工客服交流的选择可能受限甚至消失。

这种强制性和广泛影响使政策制定者和服务提供者有强烈的道德义务确保AI - PS值得信任,以避免公共AI系统伤害或虐待公民。实证研究也表明存在这种风险,如COMPAS软件在预测再犯风险时存在种族差异,且准确性不比人类预测高。公民可能因AI - PS影响不可避免,而比信任商业产品或服务中的AI更加谨慎。

  • 自由裁量权论证 :在民主背景下,AI - PS的自由裁量权合法性是其需值得信任的另一个规范原因。非民选行政人员要获得公民信任,需以民主尽责的方式行使自由裁量权。随着先进AI的兴起,其也能行使自由裁量权,同样应基于此规范原因获得信任。

行政自由裁量权的根源是中立伦理理想,但这是一种错觉,因为行政人员不仅执行立法者意图,还会主动发起和制定政策。公共行政学者呼吁对非民选行政人员的自由裁量权进行民主控制和问责,以避免其因专业知识局限、脱离民众等问题而未能尽责行使权力。

将AI技术融入公共部门,使行政自由裁量权从人类向AI转移。尽管目前狭义AI的自由裁量权有限,但随着通用人工智能和算法治理的发展,AI自由裁量权的民主合法性问题将凸显。这些问题在私营部门不存在,因为商业产品和服务的自由裁量权无需考虑民主合法性。

3. AI - PS社会信任研究的系统综述

基于上述两方面原因,AI - PS的信任问题应在公共行政和公共部门领域受到关注,但相关研究仍有限。通过以下SLR结果可证明这一点。我们提出两个问题:一是研究在促进AI - PS信任或构建可信AI - PS方面取得了多少证据和见解;二是推进该领域知识还需填补哪些空白。
- 搜索策略 :截至2021年12月28日,对Scopus和WoS两大数据库中的文献进行筛选。为确保分析严谨和可重复性,采用Preferred Reporting Items for Systematic Reviews and Meta - Analyses(PRISMA)方法。具体流程如下:
1. 从两个数据库中检索标题、摘要和关键词包含以下三类术语的文章:与AI相关的术语(如“人工智能”“AI”“机器学习”“深度学习”)、与公共部门相关的术语(如“公共部门”“公共行政”“公共管理”“公共服务”“政府”)、与信任相关的术语(如“信任”“值得信任”)。
2. 去除重复文章,仅保留Scopus中标记为“最终版”的英文期刊文章和WoS中来自Web of Science Core Collection的文章。
3. 排除未同时涉及信任和AI概念的文章,采用宽松标准保留涵盖公私部门案例、明确提及AI - PS、涉及公私混合治理中AI使用以及关于智慧城市的文章,排除将政府视为AI市场监管者的文章。最终得到32篇文章进行审查。

graph LR
    A[开始] --> B[检索文章]
    B --> C[去除重复文章]
    C --> D[排除不相关文章]
    D --> E[最终筛选32篇文章]
  • 文献的描述性特征
    • 时间分布 :文章较新,最早发表于2018年,多数(26篇)发表于2020年或之后。
    • 期刊分布 :32篇文章发表在29种期刊上,没有一种期刊在该领域占主导,每种期刊发表相关文章不超过两篇。
    • 学科领域 :发表相关文章的期刊涵盖多个学科领域,体现了AI - PS信任问题的跨学科性质。
    • 主流期刊情况 :除一篇发表在《政府信息季刊》外,没有文章发表在主流公共行政期刊或明确以公共部门为主题的期刊上。
    • 领域聚焦 :特定领域文章中,关于AI在医疗保健领域应用的文章最多(4篇),其他文章主题分散。医疗保健领域的信任问题可能最为重要,因为涉及大量个人数据和患者福利。
    • AI类型 :文章中提及最多的AI类型是“预测分析和数据可视化”以及“认知机器人、身份分析和自主系统”。
    • 地理范围 :文章地理范围广泛,除跨国研究外,还涉及澳大利亚、比利时、中国大陆、克罗地亚、印度、日本、马来西亚、荷兰、沙特阿拉伯、瑞士、英国和美国等经济体。
    • 研究方法 :32篇文章中,只有12篇采用实证方法,且假设检验较少。

总体而言,这32篇文章分散在不同学科、期刊、地理区域、公共服务领域和AI类型中,关于AI - PS信任的实证研究匮乏。

  • 文献中提及的AI - PS信任预测因素 :研究可通过识别社会对AI - PS信任的预测因素来帮助构建可信的AI - PS。一些文章参考人机工程学研究中人类对机器信任的三个来源:设计者发明机器的善意意图或目的、机器的工作过程和机器的性能。受此框架启发,有学者假设公民在以下三种情况下信任公共部门的AI聊天机器人:认识到政府使用该技术造福公民的良好意图(目的)、了解聊天机器人的工作原理(过程)、认为聊天机器人能对其询问提供充分回应(性能)。

此外,还有与目的 - 过程 - 性能框架相关的观点。有学者认为,AI系统开发者和决策者的价值观对普通用户的信任更重要;也有学者强调通过可解释AI(XAI)和算法透明度与问责制使过程可问责的重要性;还有学者提出“人类参与决策循环(HDL)假设”会影响公民对AI - PS的信任水平;在性能方面,AI服务质量被认为很重要。

文献还提及与AI所基于的数据性质相关的信任预测因素,如数据的可信度、完整性、互操作性、安全性和隐私性、公平性和无偏性。此外,制度和监管环境也很关键,包括对政府本身的信任、可信的硬法和软法的存在,以及在系统开发阶段通过审计、独立监督和多利益相关者参与对AI算法和系统进行额外检查,都有助于构建可信的AI - PS。

  • 假设检验实证研究进展 :仅发现少数涉及假设检验的实证研究,主要集中在以下三类假设:
    • 潜在用户对AI - PS的信任对其使用意愿的影响。
    • AI使用对公共服务或政府信任的影响。
    • AI - PS信任的预测因素。

例如,Kuberkar和Singhal通过在线调查研究公共交通通勤者对AI聊天机器人的信任与使用意愿及推荐意愿的关联;Ingrams等人通过情景调查实验研究AI在税务检查中的使用对参与者对美国国税局信任的影响;Wang等人研究公民对税务AI语音机器人的有效使用与对政府信任的关系,发现无显著关联;Aoki关注公共部门聊天机器人的信任水平与公共服务领域的关系,并研究了HDL假设。

同时,在假设检验中,信任的操作化方式不一致。不同研究采用不同的测量方法,如通过对特定陈述的同意程度来衡量公民对政府或聊天机器人的信任,或者基于对政府能力、诚实和善意的综合评估来衡量感知的可信度。

可信的公共部门人工智能:研究进展与未来议程

4. 未来研究议程

鉴于AI - PS信任预测因素的实证研究匮乏,提出以下未来实证研究命题:
- 基于目的 - 过程 - 性能框架的命题
1. P1 :AI系统开发者的感知动机(信任的目的基础)会影响社会对AI - PS的信任。
2. P2 :政策制定者和管理者使用AI系统的感知动机(信任的目的基础)会影响公民/服务用户对AI - PS的信任。
3. P3 :AI - PS的可解释性(信任的过程基础)会影响社会对AI - PS的信任。
4. P4 :AI - PS的数据透明度(信任的过程基础)会影响社会对AI - PS的信任。
5. P5 :AI - PS的性能(信任的性能基础)会影响社会对AI - PS的信任。
6. P6 :社会对参与公共部门运营的AI和人类的信任水平不同,部分原因是对其预期性能水平的差异(信任的性能基础)。

命题编号 命题内容 所属基础
P1 AI系统开发者的感知动机(信任的目的基础)会影响社会对AI - PS的信任 目的
P2 政策制定者和管理者使用AI系统的感知动机(信任的目的基础)会影响公民/服务用户对AI - PS的信任 目的
P3 AI - PS的可解释性(信任的过程基础)会影响社会对AI - PS的信任 过程
P4 AI - PS的数据透明度(信任的过程基础)会影响社会对AI - PS的信任 过程
P5 AI - PS的性能(信任的性能基础)会影响社会对AI - PS的信任 性能
P6 社会对参与公共部门运营的AI和人类的信任水平不同,部分原因是对其预期性能水平的差异(信任的性能基础) 性能
  • 关于AI素养的命题

    • P7 :个人的AI素养会影响其对AI - PS的信任。这种影响可能是积极的,也可能是消极的。一方面,高AI素养的专家因了解AI系统背后的过程,可能消除对AI的恐惧并信任该技术;另一方面,他们可能因了解AI的风险和危险而不信任AI,且不像低AI素养的普通民众那样对AI有积极的专家偏见。
  • 关于输入数据性质的命题

    • P8 :AI输入数据的感知可信度、完整性、互操作性、安全性和隐私性、公平性和无偏性会提高社会对AI - PS的信任水平。
  • 关于制度设置的命题

    1. P9 :独立监督的存在会提高社会对AI - PS的信任。
    2. P10 :可信的(a)硬法和(b)软法对AI的规范会提高社会对AI - PS的信任。
    3. P11 :社会对政府的信任与对AI - PS的信任呈正相关。
  • 关于AI类型和应用领域的命题

    1. P12 :社会对AI - PS的信任水平取决于所使用的AI类型。
    2. P13 :具有强制性的AI - PS与用于工业和商业私人用途的类似AI系统或技术的社会信任水平不同。
    3. P14 :社会对AI - PS的信任强度取决于公共部门运营和服务的领域,原因包括服务的强制性方面、预期影响规模和可能危害的严重程度。
  • 关于AI自由裁量权和政治制度的命题

    1. P15 :社会对AI - PS的信任水平取决于AI被赋予的自由裁量权程度,自由裁量权越高,利益相关者对AI - PS的信任越谨慎。
    2. P16 :社会对AI - PS的信任水平因政治制度类型而异,在民主制度下,利益相关者可能比在专制制度下更谨慎地信任AI - PS,因为担心公共部门中非民选代理人行使自由裁量权的合法性。
  • 关于利益相关者差异的命题

    • P17 :不同利益相关者对AI - PS的信任不同。例如,儿童、老年人和残疾人可能对用于回应公民咨询的虚拟代理人有不同态度;政治家、政策制定者和基层官僚可能基于其在政府中的地位,对AI系统有不同的信任理由。
graph LR
    A[目的 - 过程 - 性能框架] --> B[P1 - P6]
    C[AI素养] --> D[P7]
    E[输入数据性质] --> F[P8]
    G[制度设置] --> H[P9 - P11]
    I[AI类型和应用领域] --> J[P12 - P14]
    K[AI自由裁量权和政治制度] --> L[P15 - P16]
    M[利益相关者差异] --> N[P17]
5. 结论

AI正在改变全球公共部门的运营方式,赢得所有利益相关者(包括公民和政策制定者)的信任是成功向AI - PS过渡的关键。公共部门使用AI必须值得信任,主要是因为其运营和服务的强制性以及AI - PS对社会的广泛影响。从民主角度看,向算法治理的转变要求AI成为值得信任的代理人,以民主尽责的方式行使自由裁量权。

然而,尽管社会对AI - PS的信任至关重要,但相关研究滞后。截至2021年12月28日的系统文献综述显示,该领域缺乏严谨的实证研究。因此,提出的一系列命题值得进一步研究,对这些命题的检验将为公共管理者和开发者在使用和开发AI - PS时提供有价值的见解。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值