import numpy as np
import pandas as pd
# 准备数据
# 评分矩阵
R = np.array([[4, 0, 2, 0, 1], [0, 2, 3, 0, 0], [1, 0, 2, 4, 0], [5, 0, 0, 3, 1], [0, 0, 1, 5, 1], [0, 3, 2, 4, 1]])
print(len(R))
# 算法实现
"""
@输入参数:
R: M*N的评分矩阵
K: 隐特征向量维度
max_iter:最大迭代次数
alpha:步长
lamda:正则化系数
@输出:
分解之后的P,Q
P:初始化用户特征矩阵M*K
Q:初始化物品特征矩阵N*K
"""
# 给定超参数
K = 50
max_iter = 5000
alpha = 0.0002
lamda = 0.0001
# 核心算法
def LFM_grad_desc(R, K=2, max_iter=1000, alpha=0.0001, lamda=0.005):
# 基本唯独参数
M = len(R)
N = len(R[0])
# P,Q初始值,随机生成
P = np.random.rand(M, K)
Q = np.random.rand(N, K)
Q = Q.T
# 开始迭代
for step in range(max_iter):
# 对所有的用户u,物品i做遍历,对应的特征向量Pu,Qi梯度下降
for u in range(M):
for i in range(N):
# 对于每一个大于0的评分,求出预测评分误差
if R[u][i] > 0:
eui = np.dot(P[u, :], Q[:, i]) - R[u][i]
# 代入公式,按照梯度下降算法更新当前的Pu,Qi
for k in range(K):
P[u][k] = P[u][k] - alpha * (2 * eui * Q[k][i] + 2 * lamda * P[u][k])
Q[k][i] = Q[k][i] - alpha * (2 * eui * P[u][k] + 2 * lamda * Q[k][i])
# u , i遍历完成,所有特征向量更新完成,可以得到P,Q,可以计算预测评分矩阵
predR = np.dot(P, Q)
# 计算当前损失函数
cost = 0
for u in range(M):
for i in range(N):
if R[u][i] > 0:
cost += (np.dot(P[u, :], Q[:, i]) - R[u][i]) ** 2
# 加上正则化项
for k in range(K):
cost += lamda * (P[u][k] ** 2 + Q[k][i] ** 2)
if cost < 0.001:
break
return P, Q.T, cost
p, q, cost = LFM_grad_desc(R, K, max_iter, alpha, lamda)
print(p)
print(q)
print(cost)
pop =p.dot(q.T)
print(pop)
print(R)
推荐系统-------------隐语义模型(LFM)之梯度下降代码实现
最新推荐文章于 2024-09-15 17:06:40 发布
博客围绕算法、Python、深度学习、机器学习和推荐系统展开。Python作为重要工具,在算法实现中发挥作用,助力深度学习发展,同时也为推荐系统的构建提供支持,体现了信息技术领域多方面的融合应用。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
Python3.8
Conda
Python
Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本
2651

被折叠的 条评论
为什么被折叠?



