本文是LLM系列文章,针对《Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models》的翻译。
摘要
在涉及人类交互的环境中部署自主代理越来越引起安全问题。因此,了解事件背后的情况变得至关重要,需要开发能力,向非专家用户证明其行为的合理性。这种解释对于提高可信度和安全性至关重要。此外,它们有助于改善沟通,弥合代理和用户之间的差距,从而提高互动的有效性。这项工作提出了一个基于移动机器人操作系统(ROS)的机器人的可解释性和可解释性架构。所提出的解决方案由两个主要组成部分组成。首先,提供问责制的类似黑匣子的元素,通过区块链技术实现防篡改特性。其次,一个负责通过利用大型语言模型(LLM)对前面提到的黑匣子中包含的数据的能力来生成自然语言解释的组件。区块链和生成人工智能(AI)解决方案的集成确保了负责任、透明、可解释和值得信赖的代理的部署。该研究评估了我们的解决方案在三种不同场景中的性能,每种场景都涉及自主代理导航功能。这项评估包括对责任和可解释性指标的彻底检查,证明了我们的方法在使用机器人动作的责任数据以获得连贯、准确和可理解的解释方面的有效性,即使在现实世界场景中面临使用自主代理所固有的挑战时也是如