SVD(奇异值分解)
SVD意义
矩阵作用于向量的意义是:对向量进行旋转和缩放,更加抽象的说,是将这个向量从一组正交基空间旋转到另一组正交基空间,并缩放
对于实对称矩阵,存在
M*V_i=\lambda_{i}V_i
即存在一组正交基,M的作用只是拉伸(对应特征分解)
但是对于更加一般的矩阵M
M*V_i=\lambda_{i}U_i
即不同组正交基之间的变换
SVD在推荐中
本质:将用户偏好和物品特征映射到k维空间中,计算相似度
user:{u_{i=1}^m}
item:{item_{j=1}^n}
评分矩阵:M

M = P_{m*k}*\sigma{k*k}*{Q_{k*n}}
则
score_{ij}=P_i*Q_j
loss function:

SVD(奇异值分解)是矩阵运算的重要工具,它能描述矩阵如何将向量从一个正交基变换到另一个。在推荐系统中,SVD用于将用户偏好和物品特征映射到低维空间,通过计算相似度来预测评分并推荐物品。尽管推荐系统中的SVD算法并不严格等同于数学上的SVD,因为分解出的向量不一定正交,但依然被广泛用于解决评分矩阵的缺失值问题。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



