参考文档:
From RankNet to LambdaRank to LambdaMART: An Overview(简写文章DocF)
Learning to Rank using Gradient Descent (简写为DocL)
简单描述一下思想:
论文(
Learning to Rank using Gradient Descent):
1.第三节,提出模型,对P ij建模;
2.3.1节提出一致性要求,并推导出hat Pik ,hat Pik ,hat Pkj之间的关系
3.3.1节证明一个很重要的东西:
Then specifying any set of adjacency
posteriors is necessary and sufficient to uniquely
posteriors is necessary and sufficient to uniquely
identify a target posterior 0 ≤ Pij ≤ 1 for every pair of
samples xi , xj .
samples xi , xj .
根据前面的模型,给定任意排列,相邻元素之间的后验概率是任意xi,xj的Pij唯一的充分必要条件。
4.3.1节简化模型,将任意序列之间的相邻元素之间的后验概率统一设置为P 。
5.第4节,由普通的二层网络扩展到相邻相关素之差的二层网络。
对这部分的个人想法:
1.训练集中已经包含了相邻元素的rate值,那么f(0i-0j)要么是1(正确),要么是-1(错误)。
2.通过训练二层网络O,通过比较f(0i-0j,1)获取O的最佳参数。(所有的输入i的排名要比j高)