Learning to Rank with Nonsmooth Cost Functions

LambdaRank 提出了一种解决信息检索中排序问题的新方法,通过隐式损失函数来优化非平滑的目标损失。该方法避免了排序问题带来的困难,尤其在面对如NDCG这样的多级质量度量时。LambdaRank 通过定义文档得分的梯度规则,实现了对排序的调整,从而提高排序准确性和训练速度。在多个数据集上,LambdaRank 显示出了对比 SOTA 排序模型的显著优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Abstract

信息检索中的质量度量往往特别难优化,因为这些指标仅通过对应给定 query 返回的文档顺序间接地依赖于模型打分。 因此,损失函数对于模型参数的导数要么是 0,要么未定义。在本文中,我们提出一类简单、灵活的算法—— LambdaRank, 通过隐式损失函数避免了这些问题。

我们使用神经网络模型来描述 LambdaRank, 不过 LambdaRank 可以应用于任何可微函数。我们给出了隐式损失函数为凸的必要和充分条件,并且说明了这个通用方法具有简单的物理解释。

我们还展示了相对一个 SOTA 排序模型,在多个数据集上显著的 accuracy 提升。我们还说明了 LambdaRank 提供了一个显著加速这个 SOTA 模型训练过程的方法。虽然本文的目标是解决排序问题,但提出的方法可以应用于任何非平滑多变量损失函数。

Introduction

机器学习任务中的两类损失:

  • target cost: the desired cost
  • optimization cost: the cost used in the optimization process,
    • make the optimization task tractable(smooth,convex,etc.)
    • and It should approximate the target cost well
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值