排序模型

传统的排序模型主要分为相关性和重要性两大类
相关性:Bool model,VSM,Language model
重要性:PageRank、TrustRank

1.Bool model
Query为逻辑表达式,即“与/或/非”,相似性通过布尔代数运算判定,只有相关于不相关

2.VSM
是一种表示文档的代数模型。文档映射为t维特征向量,每维特征的权重主要有TF-IDF等多个变种。


相似度计算主要是余弦相似度


3.概率检索模型
BM25将Query分解成多个语素,综合考虑每个语素的二元独立模型(与IDF等价)、语素在文档中的权值、语素在Query中的权值,求和。

4.Language model
为每个文档建立不同的语言模型,判断由文档生成Query的可能性有多大,然后按照这种生成概率由高到低排序,作为搜索结果。
数据稀疏问题:很多查询词在文档中没有出现,导致概率为0,检索失效
解决:用背景概率做数据平滑,某个单次的背景概率就是这个单次出现的次数除以文档集合的单次总数
综上,文档生成查询概率的计算公式为每个查询词的文档语言模型+平滑的文档集合语言模型,求积

改进:HMM、相关模型、翻译模型

5.PageRank



 

### 关于推荐系统中使用的排序模型 #### Pointwise 排序模型 Pointwise 方法是最常用的二元分类方式,主要用于 CTR 预估问题。这种方法能够将排序问题转化为分类问题,并利用用户的点击反馈来自然地标记正负样本[^3]。 #### Tree-based 模型 Tree-based 模型是一类重要的排序算法,在工业应用中有广泛的应用场景: - **决策树** 是一种基础的机器学习方法,通过一系列条件判断来进行预测。 - **随机森林 (RF)** 和 **梯度提升决策树 (GBDT)** 属于集成学习技术,能有效提高单棵决策树的表现力并减少过拟合风险。其中 GBDT 更加注重顺序构建多棵树以逐步优化模型性能[^4]。 - **GBDT+LR** 结合了线性和非线性的优势,先用 GBDT 对数据进行编码处理后再输入逻辑回归模型训练;而 XGBoost 则是对传统 GBT 的改进版本,具有更高的效率和更好的泛化能力。 #### 实际案例分析 - 马蜂窝推荐系统 具体到实际应用场景下,如马蜂窝这样的旅游服务平台其推荐流程分为三个阶段:召回、初次排序以及最终重排序。这些环节共同作用确保给用户提供高质量的内容展示[^2]。 ```python from sklearn.ensemble import GradientBoostingClassifier, RandomForestClassifier import xgboost as xgb # 构建简单的GBDT模型用于CTR预估 gbdt_model = GradientBoostingClassifier() rf_model = RandomForestClassifier() # 使用XGBoost库创建更高效的模型实例 xgb_model = xgb.XGBClassifier(use_label_encoder=False) # 训练过程省略... ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值