可信有机计算系统:挑战与展望
1. 信任相关概念
在多智能体系统和人工社会的相关文献中,“信任”一词的许多方面都包含在“可信度”之中。可信度用于衡量系统出现故障的概率,或者系统在出现故障前可能正常运行的时间。在多智能体系统里,会使用模型和机制来找出恶意或自私的智能体,将它们排除在交互之外,或者在不得不与它们交互时采取特殊措施。这里所说的恶意智能体包括“说谎者”,即那些声称提供某种服务质量却无法兑现,或者试图以类似方式欺骗其他智能体或用户的智能体。
可信度还描述了系统与用户交互时所具有的一种属性。用户必须能够理解系统的操作,如果这些操作不符合其偏好,用户还能进行干预。从这个角度看,可信度和可用性密切相关。可信度要求系统的操作对用户来说是透明且可控的,而可用性则涉及信息和可能操作向用户呈现的方式。当用户界面需要适应不同的显示设备时,这个问题会更加突出。大型、分布式的有机系统不会局限于单一设备或某类设备与用户交互,而是可以通过标准个人电脑、个人数字助理(PDA)、手机、公共触摸屏等具有不同隐私程度和交互模式的设备来实现。不过,有机计算(OC)系统仍需保证效率、有效性以及符合ISO 9241 - 11要求的整体满意的用户体验。
2. 挑战与机遇
对OC系统中信任的广泛探讨带来了许多有趣的研究问题,以下是一些最紧迫的问题:
2.1 信任模型和信任度量
在多智能体系统(MAS)中,信任模型已经得到了深入研究。大多数信任模型考虑的是两个智能体之间的双边信任,有些还纳入了声誉或系统提供的信任值概念。然而,这些模型都没有涵盖信任定义的所有方面,它们主要是为了确保智能体的可信度,即智能体能够履行承诺。除了智能体之间的信任视角,还需要
可信有机计算系统的挑战与对策
超级会员免费看
订阅专栏 解锁全文
20万+

被折叠的 条评论
为什么被折叠?



