多智能体系统中的信任过程解析
1. 信任的定义与双重性质
在多智能体系统领域,信任通常被定义为:“信任是个体A期望另一个个体B执行对其福利有影响的特定行动的主观概率”。从认知角度看,这种期望是一种心理态度。同时,信任还具有作为一种行为的性质,即“依赖、指望、依靠受托人的决定和行为”。因此,信任既是智能体的一种心理状态(评估),也是基于这种倾向的“决定和意图”。
2. 信任相关过程概述
信任具有认知和动机的双重性质,这使得我们可以自然地将信任过程分为两个阶段:信任评估和信任决策。以下是主要过程和数据的概述:
- 信任评估 :可视为信任者评估受托人的所有信念、心理状态和价值观的总结。有两个要素为信任评估提供依据:
- 形象(Images) :根据Conte和Paolucci的定义,形象是一种评价性信念,它表明目标在特定行为方面是好是坏。形象是对不同信息源进行内部推理的结果,其信息源主要有三种:
- 直接经验 :信任者与受托人的直接交互,通常被认为是最可靠的信息源,因为它来自无中介的直接感知。但如果智能体用于感知交互的传感器不可靠,则除外。几乎所有多智能体信任模型都将其作为形象计算的来源。
- 交流经验 :来自其他智能体传达给信任者的信息,描述了受托人与其他智能体的交互。虽然分享经验可以增加输入数量,提高形象计算的收敛性,但该信息源可能不可靠,因为智能体可能提供虚假报告。大多数现有信任模型使用第三方信息进行形象计算。
- 社会信息 :受托人在社会中的层级地位
超级会员免费看
订阅专栏 解锁全文

1217

被折叠的 条评论
为什么被折叠?



