原来是个研究点:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.89.8378&rep=rep1&type=pdf
http://wenku.baidu.com/link?url=WpepFZM0oYBDvUvOIjMsPuj3O23_8Cm1YjqC-G5Eke8Yc_DSvsNe96nMcLTEVExKH9VS89NbHInGHP9iXDKGSmyTU3cG5PyQpaWgrAOAqAS
参考第一篇文章,其实思路还是比较直观的,要点有这几个:
1. 计算多个不同源对同一个事情的描述的相似度。比如 “Lightty H, XXX[译]” 和 “H Lightty,XXX翻译”,就算是同一个描述,也会有顺序,表达方式等的区分,所以要计算它们的相似性,作为不同源的“支持度”。
2. 每个网页自身有一个可信程度。有的网页可信度高,有的一般。其实,可以初始为1,慢慢迭代收敛呗。加log,做平滑。
3. 不同网页的描述间,会有支持度,根据上面的相似度来算。
4. 会存在有多个网页,其实他们都是互相拷贝,所以加个系数,做限定(其实这步没太懂,加系数就是做下平滑咯?避免某个值特别大?)。
5. 最后,迭代收敛(为何一定会收敛?并没有论述)
多源信息融合评估
本文介绍了一种评估多个来源信息一致性的方法,包括计算不同源描述的相似度、网页的可信度评估、描述间的相互支持度计算,并通过迭代收敛得出最终结果。
8149

被折叠的 条评论
为什么被折叠?



