
推荐系统
文章平均质量分 92
浪漫的数据分析
这个作者很懒,什么都没留下…
展开
-
推荐系统的发展演进历史和模型的目标及优缺点
推荐系统发展历程提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章 Python 机器学习入门之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录推荐系统发展历程前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,原创 2021-12-24 20:22:11 · 10616 阅读 · 1 评论 -
阿里DIN模型(深度兴趣网络)详解及理解
这里写目录标题目标:模型产生原因:核心思想:模型介绍:Base model改进模型模型算法设计论文的算法改进参考资料目标:掌握2017年阿里提出的深度兴趣网络(Deep Interest Network for Click-Through Rate Prediction)以及后续的DIEN。本篇介绍DIN原文:Deep Interest Network for Click-Through Rate Prediction21 Jun 2017Deep Interest Evolution Net原创 2021-11-16 01:46:13 · 10253 阅读 · 1 评论 -
Facebook的GBDT+LR模型python代码实现
目标:实现GBDT+LR模型代码,并比较和各种RF/XGBoost + LR模型的效果,发现GBDT+LR真心好用啊。内容:构造GBDT+LR步骤训练阶段:1、 获取特性信息2、训练GBDT分类器3、遍历GBDT树的叶子节点,拼接成一个常常的一维向量4、 训练OneHot编码器5、 训练LR模型预测阶段:1、把带预测的特征输入到GBDT2、获得叶子节点,拼接成一个常常的一维向量3、获得OneHot向量4、LR预测结果这里发现了上篇文章的一个错误:就是GBDT树的叶子节点,输原创 2021-11-13 17:16:48 · 2844 阅读 · 0 评论 -
传统推荐算法Facebook的GBDT+LR模型深入理解
目标:深入理解Facebook 2014年提出的的GBDT+LR模型。优快云上泛泛而谈的文章很多,真正讲解透彻的没几篇。争取我这篇能讲解透彻。今晚又想了许久,想通了一些原理。也分享出来。算法背景:FaceBook一推出这一模型就引起了业内的轰动,因其设计的巧妙以及预测效果的精良,很多公司一度极力推广,在数据比赛KDD中也经常使用。尽管GBDT+LR依然存在其问题点,但是在当时数据量没有特别大的情况下,这一模型几乎处于横扫千军的状态。后期模型被不停的优化,于是产出了:XGBoost/GBDT+原创 2021-11-11 23:06:14 · 3540 阅读 · 0 评论 -
推荐系统XDeepFM模型--DeepFM和DCN升级版
xDeepFM模型目标:引言:xDeepFM模型介绍:2.1 Compressed Interaction Network(CIN)xDeepFM复杂度分析Experiment产出:Conclusion参考资料:目标:学习模型xDeepFM模型,包含我个人的一些理解。深入理解模型。结合卷积神经网络CNN理解模型原理。昨晚想了一晚上才想通,都失眠了。微软亚洲研究院2018年提出xDeepFM模型,可以理解为对DeepFM和DCN升级版。相对于DeepFM,升级为自动构建高阶交叉特征相对于DCN,从原创 2021-11-08 01:49:32 · 4024 阅读 · 0 评论 -
推荐算法DCN(Deep & Cross)自动构造高阶交叉特征原理介绍
目标:斯坦福与Google联合发表在AdKDD 2017上的论文《Deep & Cross Network for Ad Click Predictions》。特点:对Wide@Deep模型的升级,可以自动自动构造高阶交叉特征。可以说和华为同期提出的DeepFM属于同一种思想,并且走得更远。看了下作者,好像也是中国人。中国不注重AI人才,导致大量的AI领军人物流失。真是可惜。华为同期提出的DeepFM只是用了FM替换了Wide@Deep中的Wide(LR)部分,没有提出更多的创新,DCN创新更原创 2021-11-06 04:05:27 · 3274 阅读 · 0 评论 -
推荐算法DeepFM原理介绍及tensorflow代码实现
目标:掌握DeepFM原理,以及发展历程。和具体的代码实现。产生背景:产生DeepFM模型的原因:前面学习的Embedding MLP、Wide&Deep、NerualCF 等几种不同的模型结构,都没有用到交叉特征。特征都是一个一个独立的送进模型训练,对于挖掘特征交叉或者特征组合的信息,比较低效。1、 Embedding MLP是把各个特征,进行了embeding后送进MLP无交叉。直接把独立的特征扔进神经网络,让它们在网络里面进行自由组合。2、 NerualCF也是仅仅把物品和用户分别原创 2021-11-05 01:24:41 · 2296 阅读 · 0 评论 -
经典Wide & Deep模型介绍及tensorflow 2代码实现
[[TOC]]目标:经典推荐深度模型 Wide & Deep。完整的paper名称是《Wide & Deep Learning for Recommender Systems》内容:这篇知乎小哥写的挺简单明了的,直接摘抄过来,原文:知乎原文本文介绍一个经典推荐深度模型 Wide & Deep。完整的paper名称是《Wide & Deep Learning for Recommender Systems》一. 模型介绍wide & deep的模型架构如原创 2021-11-03 01:11:16 · 2154 阅读 · 0 评论 -
协同过滤进化版本NeuralCF及tensorflow2实现
目标:掌握NeuralCF比传统基于矩阵分解的协同过滤算法的改进点,以及算法的优点和缺点。内容:上篇学习了最经典的推荐算法:协同过滤,并基于矩阵分解得到了用户和物品的embeding向量。通过点积可以得到两者的相似度,可进行排序推荐。但传统协同过滤通过直接利用非常稀疏的共现矩阵进行预测的,所以模型的泛化能力非常弱,遇到历史行为非常少的用户,就没法产生准确的推荐结果了。矩阵分解是利用非常简单的内积方式来处理用户向量和物品向量的交叉问题的,所以,它的拟合能力也比较弱。改进点1、 能不能利用深度学习原创 2021-11-01 00:42:59 · 734 阅读 · 3 评论