RankLib源码分析(二):RankNet

本文深入探讨RankNet模型,基于Learning to Rank的梯度下降方法。内容涵盖模型建模、一致性要求、参数更新策略,以及RankNet在实际中的应用和训练过程。通过对神经网络结构和训练过程的解析,阐述RankNet如何通过比较样本对来学习排序。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考文档:
From RankNet to LambdaRank to LambdaMART: An Overview(简写文章DocF)
Learning to Rank using Gradient Descent (简写为DocL)


简单描述一下思想:
论文( Learning to Rank using Gradient Descent):
1.第三节,提出模型,对P ij建模;
2.3.1节提出一致性要求,并推导出hat Pik ,hat Pik ,hat Pkj之间的关系
3.3.1节证明一个很重要的东西:
Then specifying any set of adjacency
posteriors is necessary and sufficient to uniquely
identify a target posterior 0 ≤ Pij ≤ 1 for every pair of
samples xi , xj .
根据前面的模型,给定任意排列,相邻元素之间的后验概率是任意xi,xj的Pij唯一的充分必要条件。
4.3.1节简化模型,将任意序列之间的相邻元素之间的后验概率统一设置为P 。

5.第4节,由普通的二层网络扩展到相邻相关素之差的二层网络。

对这部分的个人想法:
1.训练集中已经包含了相邻元素的rate值,那么f(0i-0j)要么是1(正确),要么是-1(错误)。
2.通过训练二层网络O,通过比较f(0i-0j,1)获取O的最佳参数。(所有的输入i的排名要比j高)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值