基于矩阵分解的CF算法实现(一):LFM

LFM(隐语义模型)通过隐含特征连接用户和物品,使用矩阵分解技术处理稀疏评分矩阵。核心是将User-Item矩阵分解为User-LF和LF-Item矩阵,通过P*Q重构评分矩阵。损失函数采用平方差并加入L2正则化,通过随机梯度下降法更新参数P和Q,以最小化预测误差。该模型用于预测用户对物品的评分。

LFM也就是前面提到的Funk SVD矩阵分解

LFM原理解析

LFM(latent factor model)隐语义模型核心思想是通过隐含特征联系用户和物品,如下图:
在这里插入图片描述

  • P矩阵是User-LF矩阵,即用户和隐含特征矩阵。LF有三个,表示共总有三个隐含特征。
  • Q矩阵是LF-Item矩阵,即隐含特征和物品的矩阵
  • R矩阵是User-Item矩阵,有P*Q得来
  • 能处理稀疏评分矩阵

利用矩阵分解技术,将原始User-Item的评分矩阵(稠密/稀疏)分解为P和Q矩阵,然后利用P∗QP*QPQ还原出User-Item评分矩阵RRR。整个过程相当于降维处理,其中:

  • 矩阵值P11P_{11}P11表示用户1对隐含特征1的权重值

  • 矩阵值Q11Q_{11}Q11表示隐含特征1在物品1上的权重值

  • 矩阵值R11​R_{11}​R11就表示预测的用户1对物品1的评分,且R11=P1,k⃗⋅Qk,1⃗​R_{11}=\vec{P_{1,k}}\cdot \vec{Q_{k,1}}​R11=P1,kQk,1
    在这里插入图片描述
    利用LFM预测用户对物品的评分,k​k​k表示隐含特征数量:
    r^ui=puk⃗⋅qik⃗=∑k=1kpukqik \begin{aligned} \hat {r}_{ui} &=\vec {p_{uk}}\cdot \vec {q_{ik}} \\&={\sum_{k=1}}^k p_{uk}q_{ik} \end{aligned} r^ui=pukqik=k=1kpukqik
    因此最终,我们的目标也就是要求出P矩阵和Q矩阵及其当中的每一个值,然后再对用户-物品的评分进行预测。

损失函数

同样对于评分预测我们利用平方差来构建损失函数:
Cost=∑u,i∈R(rui−r^ui)2=∑u,i∈R(rui−∑k=1kpukqik)2 \begin{aligned} Cost &= \sum_{u,i\in R} (r_{ui}-\hat{r}_{ui})^2 \\&=\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 \end{aligned} Cost=u,iR(ruir^ui)2=u,iR(ruik=1kpukqik)2
加入L2正则化:
Cost=∑u,i∈R(rui−∑k=1kpukqik)2+λ(∑Upuk2+∑Iqik2) Cost = \sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 + \lambda(\sum_U{p_{uk}}^2+\sum_I{q_{ik}}^2) Cost=u,iR(ruik=1kpukqik)2+λ(Upuk2+Iqik2)
对损失函数求偏导:
∂∂pukCost=∂∂puk[∑u,i∈R(rui−∑k=1kpukqik)2+λ(∑Upuk2+∑Iqik2)]=2∑u,i∈R(rui−∑k=1kpukqik)(−qik)+2λpuk∂∂qikCost=∂∂qik[∑u,i∈R(rui−∑k=1kpukqik)2+λ(∑Upuk2+∑Iqik2)]=2∑u,i∈R(rui−∑k=1kpukqik)(−puk)+2λqik \begin{aligned} \cfrac {\partial}{\partial p_{uk}}Cost &= \cfrac {\partial}{\partial p_{uk}}[\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 + \lambda(\sum_U{p_{uk}}^2+\sum_I{q_{ik}}^2)] \\&=2\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})(-q_{ik}) + 2\lambda p_{uk} \\\\ \cfrac {\partial}{\partial q_{ik}}Cost &= \cfrac {\partial}{\partial q_{ik}}[\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 + \lambda(\sum_U{p_{uk}}^2+\sum_I{q_{ik}}^2)] \\&=2\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})(-p_{uk}) + 2\lambda q_{ik} \end{aligned} pukCostqikCost=puk[u,iR(ruik=1kpukqik)2+λ(Upuk2+Iqik2)]=2u,iR(ruik=1kpukqik)(qik)+2λpuk=qik[u,iR(ruik=1kpukqik)2+λ(Upuk2+Iqik2)]=2u,iR(ruik=1kpukqik)(puk)+2λqik

随机梯度下降法优化

梯度下降更新参数puk​p_{uk}​puk
puk=puk−α∂∂pukCost=puk−α[2∑u,i∈R(rui−∑k=1kpukqik)(−qik)+2λpuk]=puk+α[∑u,i∈R(rui−∑k=1kpukqik)qik−λpuk] \begin{aligned} p_{uk}&=p_{uk} - \alpha\cfrac {\partial}{\partial p_{uk}}Cost \\&=p_{uk}-\alpha [2\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})(-q_{ik}) + 2\lambda p_{uk}] \\&=p_{uk}+\alpha [\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})q_{ik} - \lambda p_{uk}] \end{aligned} puk=pukαpukCost=pukα[2u,iR(ruik=1kpukqik)(qik)+2λpuk]=puk+α[u,iR(ruik=1kpukqik)qikλpuk]
同理:
qik=qik+α[∑u,i∈R(rui−∑k=1kpukqik)puk−λqik] \begin{aligned} q_{ik}&=q_{ik} + \alpha[\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})p_{uk} - \lambda q_{ik}] \end{aligned} qik=qik+α[u,iR(ruik=1kpukqik)pukλqik]
随机梯度下降: 向量乘法 每一个分量相乘 求和
puk=puk+α[(rui−∑k=1kpukqik)qik−λ1puk]qik=qik+α[(rui−∑k=1kpukqik)puk−λ2qik] \begin{aligned} &p_{uk}=p_{uk}+\alpha [(r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})q_{ik} - \lambda_1 p_{uk}] \\&q_{ik}=q_{ik} + \alpha[(r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})p_{uk} - \lambda_2 q_{ik}] \end{aligned} puk=puk+α[(ruik=1kpukqik)qikλ1puk]qik=qik+α[(ruik=1kpukqik)pukλ2qik]
由于P矩阵和Q矩阵是两个不同的矩阵,通常分别采取不同的正则参数,如λ1​\lambda_1​λ1λ2​\lambda_2​λ2

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值