Prob-Cog:用于信任评估的自适应过滤模型
1. 引言
开放的电子市场充满不确定性,这导致其中的代理之间容易产生误解。即便存在恶意代理,未知的诚实代理的建议也可能不可靠。为降低被不公平建议误导的风险,消费者代理会向评级相似的参与者寻求建议。
不公平可分为两类:
- 有意的:
- 参与者持续恶意行事。
- 参与者偶尔进行欺诈活动。
- 无意的:
- 缺乏个人经验。
- 不同的行为特征导致不同的评级态度。
我们的算法采用两层过滤方法,结合信任的认知和概率观点,主要针对有意的不公平建议者。通过理解他们的评级态度,消费者代理可以采取适当的步骤来评估他们。
2. 相关工作
有几种声誉系统和机制被提出用于建模建议者的可信度,并解决多代理在线环境中的不公平评级问题。这里介绍两种代表性方法:FIRE和个性化模型。
| 模型名称 | 特点 |
|---|---|
| FIRE模型 | 一个为开放多代理系统(如电子商务应用)设计的去中心化信任和声誉系统。信任在多个不同信息组件的上下文中进行评估,每个组件都有一个确定性的信任公式和相关的评级权重函数。 |
| 个性化模型 | 为集中式声誉系统处理不公平评级而提出。提供公共和私人声誉组件来评估建议者的可信度。消费者代理根据声誉信息的可用性不同地确定私人和公共声誉组件的权重。 |
超级会员免费看
订阅专栏 解锁全文
12

被折叠的 条评论
为什么被折叠?



