一、基本信息
- 论文题目:《MATRIX FACTORIZATION TECHNIQUES FOR RECOMMENDER SYSTEMS 》
- 发表时间: Journal Computer archive
Volume 42 Issue 8, August 200 ,Pages 30-37 - 论文作者: 1.Yehuda Koren, Yahoo Research
2.Robert Bell and Chris Volinsky, AT&T Labs—Research
二、相关名词
●latent factor models 隐因子模型
●overfitting 过度拟合
●Stochastic gradient descent 随机梯度下降
●Alternating least squares 交替最小二乘法
●cross-validation 交叉验证
●implicit feedback 隐式反馈
●temporal dynamics 时序动态
●root-mean-square error 均方根误差
三、摘要
正如Netflix奖竞赛所证明的那样,矩阵分解模型优于传统的最近邻技术,可用于产生产品推荐,允许合并其他信息,如隐式反馈,时间效应和置信水平。
四、论文主要内容
- 介绍推荐系统原理:推荐系统依赖于不同类型的输入数据,在这些输入数据中,其中一个维度表示用户,另一个维度表示感兴趣的项目。推荐系统基于两种策略,一种是基于内容过滤的推荐算法,另一种是基于协同过滤推荐算法。协同过滤的两个主要模型是邻域模型和隐因子模型。
- 介绍矩阵分解的方法:矩阵分解优点是允许结合其他信息。当显示反馈不可用时,推荐系统可以使用隐式反馈推断用户偏好,隐式反馈通过观察用户行为间接反映意见,包括购买历史,浏览历史,搜索模式,甚至鼠标移动。隐式反馈通常表示事件的存在或不存在,因此它通常由密集填充的矩阵表示。
- 矩阵分解模型:Basic MF,Biases MF,合并有关的信息源MF,时序动态MF,隐式反馈MF(系统使用二进制粗糙的将用户偏好级别量化,将置信度分数和估计的偏好相关联)
(1)basic MF
向量q_i∈R^f, p_u∈R^f,则评分预测为:,为防止过拟合采用正则化平方误差,
预测值接近真实值就是使其误差越小,这是我们的目标函数(损失函数),我们的目标就是使误差达到最小化,最小化上述公式的常用方法是梯度下降法和最小二乘法。这里比较了两种方法各自的优缺点。
SGD比ALS更容易和更快,但是ALS在以下两种情况下是有利的。
①系统可以使用并行化,在ALS中,系统独立于其他项目因子计算每个qi,并独立于其他用户因素计算每个pu。这导致了算法的潜在大规模并行化;
②针对以隐式数据为中心的系统,因为训练集不能被认为是稀疏的,所以在每个训练案例上循环,如梯度下降那样,是不切实际的。ALS可以有效处理这种情况。
(2)Biases MF
(3)合并有关的信息源MF
(4)时序动态MF
(5) 隐式反馈MF
- 数据中存在显著的时间效应,所以时间分量对于建模非常重要。
- Netflix推荐大赛的情况
五、总结
矩阵分解技术已成为协同过滤推荐器中的主要方法。Netflix Prize数据等数据集的经验表明,它们的准确性优于传统的近邻技术。同时,它们提供了一个紧凑的内存高效模型,系统可以相对容易地学习。使这些技术更加方便的原因是模型可以自然地整合数据的许多关键方面,例如多种形式的反馈,时间动态和置信水平。
六、思考与学习
梯度下降法
最小二乘法