基于描述的义务论机器人推理:实现更精细的道德判断
1. 引言
机器伦理学聚焦于如何在计算机尤其是机器人中实现伦理推理。这一领域是人工智能中知识表示与推理(KRR)的应用方向,核心问题在于如何形式化表示伦理理论,以及采用何种推理程序来实现相关推理。伦理概念的形式化应用广泛,涵盖机器人决策和能从不同伦理视角讨论情境的对话式机器人等。
项目HERA是机器伦理学的一种实现方式,它能表示行动及其后果、道德效用、因果关系和意图,支持多种伦理理论下的推理,还用于设计能与人类讨论伦理困境的对话式机器人Immanuel。不过,这种义务论推理方法存在不足,建模者编写的领域规范需预见行动的所有版本。例如,机器人禁止擅自进入他人土地,但为救遇险人员而进入则道德上允许,这就要求领域描述包含两种“擅自进入”情况。
本文将基于行动理论中“行动在描述下执行”的观点,提出一种自动化义务论推理方法。该方法只需对进入他人土地这一行动建模,推理程序就能推断出它可被描述为“擅自进入”和“救援人员”,并判断在不同描述下的道德可允许性。
2. 相关工作
- 义务论推理形式化 :有多种尝试将义务论推理在机器伦理学中形式化。如Dennis等人提出基于可废止推理形式化的BDI计划验证方法;Bringsjord和Taylor采用定理证明确保机器人行动符合预设伦理准则;Arkin在机器人反应式架构中集成伦理调节器。
- 认知机器人本体应用 :ORO框架为基于知识的机器人系统设计,旨在实现机器人与人类间概念的通信和共享;Knowrob本体使基于知识的机器人能推理自身能力,支持行动执行和感知
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



