绘制通往可信人工智能的艰难之路(上)
在当今科技飞速发展的时代,人工智能(AI)已经深入到我们生活的方方面面。欧洲委员会(EC)积极推动可信人工智能的发展,认为这不仅能保障基本价值观和权利,还能提升欧洲人工智能公司的竞争力。然而,实现可信人工智能并非易事,在理论和实践层面都面临诸多挑战。
1. 可信人工智能与信任人工智能
可信人工智能的目标是鼓励人们信任人工智能系统,而其实现方式关键取决于对“信任”和“可信赖性”的理解。
在哲学分析中,“信任”通常被表述为一种三方关系,涉及信任者A、被信任者B以及交互领域或特定利益P。“可信赖性”则定义为值得信任的品质。哲学家们常区分“单纯依赖”和“真正信任”,以及“可靠性”和“可信赖性”。“单纯依赖”基于理性预期,而“真正信任”不仅包含理性预期,还涉及道德层面。例如,Baier将信任定义为“接受自己可能受到他人不良意图(或缺乏善意)影响的脆弱性”,违背信任会让信任者产生背叛感而非仅仅是失望。
关于信任的解释主要有两类:
- 纯理性选择解释 :将“信任”概念化为关于依赖他人完成特定任务有效性的理性成本 - 收益计算。但这种解释无法区分依赖和信任,因为它缺乏真正信任所需的道德维度。
- 动机归因解释 :要求信任者将某些动机归因于被信任者。然而,当前人工智能系统缺乏道德能力来回应信任者的价值观和利益,所以直接基于这种解释实现可信人工智能存在困难。不过,人们可以通过信任设计、制造、管理或操作人工智能系统的人类代理,间接信任这些技术对象,即将人工智能系统视为包含人类代理的社会技术系统。
要使人工智能系统被认为是可信的,需
超级会员免费看
订阅专栏 解锁全文
892

被折叠的 条评论
为什么被折叠?



