学习线性排序函数中构建弱排序函数的方法研究
在信息检索领域,排序是一项至关重要的任务。随着技术的发展,越来越多用于构建排序函数的特征被提出,如基于内容的特征(TFIDF、BM25)、基于链接的特征(PageRank、HITS)以及基于用户点击数据的用户行为特征等。然而,手动调整构建排序函数所需的数百个参数是不切实际的,因此“学习排序”(Learning to Rank,LTR)这一跨信息检索和机器学习的领域受到了越来越多的关注。
1. 学习排序概述
学习排序方法通过优化损失函数来调整每个弱排序函数的参数,并将它们融合成最终的排序函数,如线性排序函数。几乎所有输出线性排序函数的LTR方法,在训练过程前都需要对排序特征进行归一化处理以构建弱排序函数。目前,Min - Max归一化方法几乎是LTR领域唯一考虑的方法,但这种方法忽略了排序特征之间的差异。
排序特征在很多方面存在不同,例如数据值分布。以BM25和PageRank为例,将它们的取值范围分别划分为10个相等的区间,计算每个区间内唯一特征值数量占总唯一特征值数量的比例。结果显示,BM25在第一个区间的比例为99%,而PageRank为10%;BM25在最后9个区间的唯一值仅占1%;PageRank在每个区间的唯一值数量差异几乎可以忽略。使用Min - Max归一化方法构建BM25和PageRank的弱排序函数时,并不会改变这种分布,归一化后99%的唯一BM25值位于[0, 0.1)区间。
2. 相关工作
LTR方法可根据最终排序函数的形式分为两类:使用线性排序函数的LTR模型和使用非线性排序函数的LTR模型。对于使用非线性排序函数的模型,弱排序函数的形成是非线性的,如RankBoost
超级会员免费看
订阅专栏 解锁全文
5万+

被折叠的 条评论
为什么被折叠?



