32、云系统中具有自方差评估的信任模型解析

云系统中具有自方差评估的信任模型解析

1. 综合RLM信任模型
1.1 RLM信任公式化

声誉值本质上是从观察样本(声誉反馈)得出的统计值,因此我们以统计形式对声誉进行建模。假设节点的真实声誉是 $R$,在RLM模型中,声誉评估表示为二维元组 $rep = {⟨R⟩, P}$,其中 $⟨R⟩$ 是预测的声誉值,$P$ 是声誉预测方差,即预测声誉值 $⟨R⟩$ 与真实声誉 $R$ 之间的平方误差。评估后的元组 $rep$ 也可作为声誉反馈发送给其他节点,所以反馈有两个属性:反馈声誉值和反馈方差。

为维护节点声誉,评估者可通过反馈会话持续接收关于该节点的反馈。在第 $k$ 个会话接收到的反馈表示为 $f_k = {z_k, c_k}$,$z_k$ 和 $c_k$ 分别代表反馈声誉值和反馈方差。每次接收到反馈 $f_k$ 后,评估者尝试预测节点的实时声誉 $R_k$ 并评估预测方差 $P_k$。理想情况下,反馈声誉值应等于真实声誉,但由于推荐者知识不完整和服务质量的瞬时波动,反馈声誉值可能与真实声誉存在偏差。由于许多独立因素导致这种偏差,将其建模为零均值高斯噪声是合理的,因此反馈声誉值与真实声誉值的关系可表示为:
$z_k = R_k + q_k$ 且 $q_k \sim Normal(0, Q_k)$ (1)
其中 $Q_k$ 是反馈噪声方差。对于正常节点,假设其声誉遵循随机过程。在统计推断理论中,信任预测问题属于无限脉冲响应滤波问题,即根据输入和先前输出预测系统的输出。对于无限脉冲响应滤波器,线性自回归(AR)模型被广泛使用,它具有良好的预测性能。因此,我们也使用线性自回归模型来定义声誉空间的演变,非线性演变可以用局部加权方法类似处理。作为一阶近似,声誉 $

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值