
推荐系统
Walter_Silva
这个作者很懒,什么都没留下…
展开
-
个推教程--第五课--基于内容的推荐方法content based
物品画像:这里主要讲了文本挖掘方面的,命名实体识别和文本类别识别 用户画像:用户的行为、偏好用户对于不同种类的倾向性现在看可能有点晕,其实就是评估用户对哪些类别更有倾向性,以及item在类别中的重要性程度1、物品刻画:item的各类别所占比重和各类别中item相关性的倒排2、用户刻画:用户对于每个类别的得分然后就可以作召回了。所有代码在加注释后再...原创 2019-01-12 14:58:10 · 363 阅读 · 5 评论 -
个推教程--第九课--总结与展望
排序部分总结rank模型是对不同的item打分,然后item根据不同的得分展现给用户特征和样本量的比例一般是1:100及其以上,即样本量要保证。实验中的样本量太少,所以wd没有发挥出威力。如果比例低于100,过拟合的风险就很大。user:用户静态属性,如年龄、性别、地域以及简单的统计特征(比如用户买过多少商品、长短时统计比如近30天。。。blabla)、还有根据用户...原创 2019-01-13 23:49:49 · 324 阅读 · 0 评论 -
个推教程--第八课--基于深度学习的排序模型wide and deep
基础的神经网络知识就跳过了DNN只在基础特征上下点功夫,复杂特征学习交给NN即可,只是可解释性会差些,但效果很不错啊k是t-1层神经元的个数,j为t层神经元的个数,a =f(z),简单地说,t层的一个神经元就是t-1层神经元通过特征权重w和偏置量b确定的。这就是前向传播。激活函数f的作用就是把线性表达转换为非线性,增强模型表达能力,不然再多的隐层作用跟一层没有任何区别。...原创 2019-01-13 23:07:42 · 840 阅读 · 0 评论 -
个推教程--第三课--基于图的个性化推荐召回算法personal rank
公式推导alpha:一般是0.6-0.8原创 2019-01-08 19:56:13 · 1106 阅读 · 2 评论 -
个推教程--第二课--基于邻域的个性化召回算法LFM
2-1 LFM算法综述 2-2 LFM算法的理论基础与公式推导有监督学习训练p和q,梯度下降 F:1--32正则话参数alpha:0.01=0.05之间学习率 beta 0.1保持正负样本均衡LFM复杂度成本低;但影响和推荐可解释性不如CFLFM是基于有监督学习的隐向量学习,而CF不是 ...原创 2019-01-07 22:45:34 · 617 阅读 · 0 评论 -
个推教程--第七课--浅层排序模型gbdt
gbdt和xgboost的详细介绍:https://wenku.baidu.com/view/44778c9c312b3169a551a460.html回归树就是把连续取值区间分箱,叶子节点为一个个小的取值区间基尼指数与熵的定义不同,熵是描述混乱状态的变量,熵越大混乱程度高;而基尼指数是指分类后分类节点左右子树下按类别衡量的纯度,纯度越高,基尼指数越小,该特征就...原创 2019-01-12 16:21:35 · 1008 阅读 · 1 评论 -
个推教程--第四课--基于深度学习的个性化召回算法item2vec
1、采用负采样,而没用huffman树2、加不加时间因素没什么区别具体word2vec的原理、训练可以参考我之前的教程,里面有视频教程地址。原创 2019-01-12 15:10:05 · 1090 阅读 · 0 评论 -
个推教程--第六课--排序浅层模型之LR
LR:就是特征线性加权加sigmoid激活函数,与线性回归分开,原理不同,后者最小二乘法,前者是最大似然概率公式推导主要基于最大似然,最后采用梯度下降法对W权重列表进行迭代 超参如下,具体可以参考https://zhuanlan.zhihu.com/p/397802071、正则化,L1和L2L1:适合特征较多的高维数据L2:适合非高维的数据2、正则化系数一般是C,s...原创 2019-01-12 14:08:27 · 924 阅读 · 0 评论 -
个推教程--第0课--基础(主要是协同过滤的原理与实现)
https://www.imooc.com/learn/1029协同过滤--理论基础 基于物品相似度小写的为item,大写的为user根据用户的行为计算出物品的相似度矩阵r:用户u对item的行为得分,i是是所有物品中前topk个物品的集合 基于用户相似度 r:用户v对item的行为得分,v是用户u前topk个相似用户,而...原创 2019-01-06 21:55:35 · 362 阅读 · 0 评论 -
个推教程--第一课--综述
个性化召回原创 2019-01-06 11:56:16 · 786 阅读 · 7 评论