可信的公共部门人工智能:研究进展与未来议程
1. 引言
全球许多政府和公共服务机构已在利用人工智能(AI)技术,预计全球公共部门运营和服务(简称“AI - PS”)对AI的使用将持续增加,至少49个国家已推出或计划推出国家AI战略,其中不少涵盖了公共部门的应用途径。向AI - PS的转变面临诸多挑战,包括获取实施AI技术所需的资金和人力资源、用法律法规规范自主智能系统的使用、解决机器判断和道德困境相关的伦理问题,以及实现社会对AI - PS的接受和信任。
本文聚焦于向AI - PS转变过程中的一个挑战:建立社会对AI - PS的信任。首先阐述在公共部门促进人类对AI的信任或构建可信AI的重要原因,接着通过对Scopus和Web of Science(WoS)两大权威数据库中期刊文章的系统文献综述(SLR),探讨科学研究在这方面的进展,找出推进该领域研究的方向,并提出未来研究的命题。
在展开讨论前,先明确几个关键术语。“信任”指对AI驱动系统的信心,基于其完成预期工作和展现良好行为的可能性;“公共部门”是承担核心政府职能(如立法、执法和提供公共服务)的实体;“社会对AI - PS的信任”指社会广泛利益相关者的信任,包括使用AI提供公共服务的公民、在公共服务中使用AI系统的一线服务提供者,以及决定是否部署AI的政策制定者和管理者。
2. AI - PS需值得信任的公共部门独特原因
在探讨公共部门特有的原因之前,先了解两个通用原因。人机交互研究表明,人类对机器的信任与使用意愿呈正相关,信任也是移动商务支付服务和电子政务平台等自动化服务使用的预测因素。这表明,从实用角度看,促进社会对AI的信任有助于其在社会中广泛接受和应用。