07_LFM--梯度下降法--实现基于模型的协同过滤

本文介绍了使用 Python 实现LFM(latent factor model)的协同过滤算法,通过梯度下降法进行优化。内容涵盖依赖引入、数据准备、算法实现和测试过程,展示了 K=2 和 K=5 时的不同输出结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LFM–梯度下降法–实现基于模型的协同过滤

0.引入依赖

import numpy as np # 数值计算、矩阵运算、向量运算
import pandas as pd # 数值分析、科学计算

1.数据准备

# 定义评分矩阵 R
R = np.array([[4, 0, 2, 0, 1],
              [0, 2, 3, 0, 0],
              [1, 0, 2, 4, 0],
              [5, 0, 0, 3, 1],
              [0, 0, 1, 5, 1],
              [0, 3, 2, 4, 1],
             ])
# R.shape # (6, 5)
# R.shape[0] # 6
# R.shape[1] # 5
# len(R) # 6
# len(R[0]) # 5

2.算法的实现

"""
@输入参数:
R:M*N 的评分矩阵
K:隐特征向量维度
max_iter: 最大迭代次数
alpha:步长
lamda:正则化系数

@输出:
分解之后的 P,Q
P:初始化用户特征矩阵 M*K
Q:初始化物品特征矩阵 N*K,Q 的转置是 K*N
"""

# 给定超参数
K = 5
max_iter = 5000
alpha = 0.0002
lamda = 0.004

# 核心算法
def LMF_grad_desc(R, K=2, max_iter=1000, alpha=0.0001, lamda=0.002):
    # 定义基本维度参数
    M = len(R)
    N = len(R[0])
    
    # P、Q 的初始值随机生成
    P = np.random.rand(M, K)
    Q = np.random.rand(N, K)
    Q = Q.T
    
    # 开始迭代
    for steps in range(max_iter):
        # 对所有的用户 u,物品 i 做遍历,然后对对应的特征向量 Pu、Qi 做梯度下降
        for u in range(M):
            for i in range(N):
                # 对于每一个大于 0 的评分,求出预测评分误差 e_ui
                if R[u][i] > 0:
                    e_ui = np.dot(P[u,:], Q[:,i]) - R[u][i]
                    # 代入公式,按照梯度下降算法更新当前的 Pu、Qi
                    for k in range(K):
                        P[u][k] = P[u][k] - alpha * (2 * e_ui * Q[k][i] + 2 * lamda * P[u][k])
                        Q[k][i] = Q[k][i] - alpha * (2 * e_ui * P[u][k] + 2 * lamda * Q[k][i])
        
        # u,i 遍历完成,所有的特征向量更新完成,可以得到 P、Q,可以计算预测评分矩阵
        predR = np.dot(P, Q)
        
        # 计算当前损失函数(所有的预测误差平方后求和)
        cost = 0
        for u in range(M):
            for i in range(N):
                # 对于每一个大于 0 的评分,求出预测评分误差后,将所有的预测误差平方后求和
                if R[u][i] > 0:
                    cost += (np.dot(P[u,:], Q[:,i]) - R[u][i]) ** 2
                    # 加上正则化项
                    for k in range(K):
                        cost += lamda * (P[u][k] ** 2 + Q[k][i] ** 2)
        if cost < 0.0001:
            # 当前损失函数小于给定的值,退出迭代
            break
    
    return P, Q.T, cost

3.测试

P, Q, cost = LMF_grad_desc(R, K, max_iter, alpha, lamda)

print(P)
print(Q)
print(cost)

predR = P.dot(Q.T)

print(R)
predR

当 K = 2 时,输出结果如下:

[[1.44372596 1.29573962]
 [1.82185633 0.0158696 ]
 [1.5331521  0.16327061]
 [0.31364667 1.9008297 ]
 [1.03622742 2.03603634]
 [1.34107967 0.93406796]]
[[ 0.4501051   2.55477489]
 [ 1.18869845  1.20910294]
 [ 1.54255106 -0.23514326]
 [ 2.33556583  1.21026575]
 [ 0.43753164  0.34555928]]
1.0432768290554293
[[4 0 2 0 1]
 [0 2 3 0 0]
 [1 0 2 4 0]
 [5 0 0 3 1]
 [0 0 1 5 1]
 [0 3 2 4 1]]
 
array([[3.96015147, 3.2828374 , 1.92233657, 4.9401063 , 1.07943065],
       [0.86057008, 2.18482578, 2.80657478, 4.27427181, 0.80260368],
       [1.10719924, 2.0198665 , 2.32657341, 3.77837848, 0.72722223],
       [4.99736596, 2.6711301 , 0.03684871, 3.03305153, 0.79407969],
       [5.66802576, 3.69353946, 1.11967348, 4.8843224 , 1.15695354],
       [2.98996017, 2.72352365, 1.84904408, 4.2626503 , 0.90954065]])

当 K = 5 时,输出结果如下:


[[ 0.77991893  0.95803701  0.75945903  0.74581653  0.58070622]
 [ 1.51777367  0.66949331  0.89818609  0.23566984  0.56583223]
 [ 0.03567022  0.58391558  1.42477223  0.87262652 -0.52553017]
 [ 1.24101793  0.86257736  0.73772417  0.18181617  0.97014545]
 [ 0.58789616  0.53522492  0.48830352  1.80622908  0.81202167]
 [ 1.08640318  0.87660384  0.68935314  0.84506882  0.92284071]]
[[ 1.64469428  1.10535565  0.56686066  0.38656745  1.56519511]
 [ 0.61680687  0.57188343  0.49729111  0.9623455   0.43969708]
 [ 0.99260822  0.6007452   1.14768173 -0.16998497 -0.14094479]
 [ 0.47070988  0.85347655  1.43546859  1.8185161   0.29759968]
 [ 0.07923314  0.49412497  0.53285806  0.23753882 -0.05146021]]
0.7478305665280703
[[4 0 2 0 1]
 [0 2 3 0 0]
 [1 0 2 4 0]
 [5 0 0 3 1]
 [0 0 1 5 1]
 [0 3 2 4 1]]

array([[3.9694342 , 2.37968507, 2.01268221, 3.8040546 , 1.08714641],
       [4.72218838, 2.2412959 , 2.81976984, 3.17210672, 0.95653992],
       [1.02652007, 1.67315396, 1.94711343, 3.99085212, 1.28488146],
       [5.0014878 , 2.22716585, 2.42906339, 2.99867943, 0.91091753],
       [3.80452512, 3.00679363, 1.04401937, 4.96078887, 0.95850804],
       [4.91762916, 2.73324389, 2.1224277 , 4.06049468, 1.03980543]])
### LFM模型算法实现步骤详解 #### 什么是LFM模型? 隐语义模型(Latent Factor Model, LFM)是一种常用的基于模型协同过滤方法。它通过降维的方式将用户和物品映射到一个低维空间中,从而捕捉用户的偏好以及物品的特征[^1]。 #### LFM的核心思想 LFM假设用户对物品的兴趣可以通过一些隐藏的因素来解释。这些因素可能是显式的(如电影类型、书籍主题),也可能是隐式的(无法直接观察)。通过学习这些隐含因子,可以更好地理解用户的行为模式并进行个性化推荐。 --- #### LFM模型的主要组成部分 1. **用户-物品交互矩阵** 构建一个 \( m \times n \) 的稀疏矩阵 \( R \),其中 \( m \) 表示用户数量,\( n \) 表示物品数量。矩阵中的元素 \( r_{ui} \) 可能表示评分或其他形式的反馈(如点击次数或购买记录)。 2. **隐向量表示** 将每个用户 \( u \) 和物品 \( i \) 映射到一个 \( k \)-维隐向量空间: - 用户隐向量:\( p_u \in \mathbb{R}^k \) - 物品隐向量:\( q_i \in \mathbb{R}^k \) 3. **目标函数** 定义损失函数用于优化参数。常见的目标是最小化预测误差与实际观测之间的差异,并加入正则项防止过拟合: \[ J = \sum_{r_{ui}\text{ known}} (r_{ui} - p_u^\top q_i)^2 + \lambda (\|p_u\|^2 + \|q_i\|^2) \] 其中: - \( r_{ui} \) 是用户 \( u \) 对物品 \( i \) 的真实评分; - \( p_u^\top q_i \) 是预测评分; - \( \lambda \) 控制正则化的强度。 --- #### LFM模型的具体实现步骤 以下是LFM模型的详细实现过程: 1. **初始化参数** 随机初始化所有用户隐向量 \( P = [p_1, p_2, ..., p_m] \) 和物品隐向量 \( Q = [q_1, q_2, ..., q_n] \)。 2. **定义损失函数** 使用均方误差作为核心指标,同时引入L2正则化约束以减少过拟合的影响: ```python import numpy as np def loss_function(R, P, Q, lambda_reg=0.01): error = 0 for u in range(len(P)): for i in range(len(Q)): if R[u][i] > 0: # 考虑已知评分 predicted_rating = np.dot(P[u], Q[i]) actual_rating = R[u][i] error += pow(actual_rating - predicted_rating, 2) regularization_term = lambda_reg * (np.linalg.norm(P)**2 + np.linalg.norm(Q)**2) total_error = error + regularization_term return total_error ``` 3. **梯度下降更新规则** 计算损失函数关于 \( p_u \) 和 \( q_i \) 的偏导数,并利用随机梯度下降法逐步调整参数: \[ \frac{\partial J}{\partial p_u} = -(r_{ui} - p_u^\top q_i) q_i + 2\lambda p_u \] \[ \frac{\partial J}{\partial q_i} = -(r_{ui} - p_u^\top q_i) p_u + 2\lambda q_i \] 更新公式如下: \[ p_u^{new} = p_u^{old} + \alpha ((r_{ui} - p_u^\top q_i) q_i - \lambda p_u) \] \[ q_i^{new} = q_i^{old} + \alpha ((r_{ui} - p_u^\top q_i) p_u - \lambda q_i) \] Python代码实现如下: ```python def update_parameters(R, P, Q, learning_rate=0.001, lambda_reg=0.01): for u in range(len(P)): for i in range(len(Q)): if R[u][i] > 0: prediction = np.dot(P[u], Q[i]) e_ui = R[u][i] - prediction grad_pu = -e_ui * Q[i] + lambda_reg * P[u] grad_qi = -e_ui * P[u] + lambda_reg * Q[i] P[u] -= learning_rate * grad_pu Q[i] -= learning_rate * grad_qi return P, Q ``` 4. **迭代训练** 不断重复计算损失函数和更新参数的过程,直到满足收敛条件为止。 ```python max_iterations = 500 tolerance = 1e-4 previous_loss = float('inf') for iteration in range(max_iterations): current_loss = loss_function(R, P, Q) if abs(previous_loss - current_loss) < tolerance: break P, Q = update_parameters(R, P, Q) previous_loss = current_loss ``` 5. **生成推荐列表** 利用最终学到的隐向量 \( P \) 和 \( Q \),为每位用户生成未接触过的高分物品推荐。 ```python def generate_recommendations(user_id, P, Q, top_k=10): user_vector = P[user_id] scores = [] for item_id in range(len(Q)): score = np.dot(user_vector, Q[item_id]) scores.append((item_id, score)) sorted_items = sorted(scores, key=lambda x: x[1], reverse=True)[:top_k] recommended_item_ids = [item[0] for item in sorted_items] return recommended_item_ids ``` --- #### 总结 LFM模型通过对用户和物品进行隐向量分解,能够有效解决传统协同过滤中存在的稀疏性和可扩展性问题。其具体实现涉及初始化参数、构建损失函数、应用梯度下降法优化以及生成推荐等多个环节。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值