A Probabilistic View of Matrix Factorization: Finding S

本文深入探讨了概率模型下的矩阵分解,特别关注了非正定性问题以及如何通过修正对角协方差矩阵来解决。介绍了Gibbs采样算法、岭回归、Lasso正则、Laplacian分解和共轭梯度法等修正方法,并提出了多任务学习的VB推断,以处理同时拟合多个任务的场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者:禅与计算机程序设计艺术

1.简介

随着深度学习的普及和应用的广泛,Matrix Factorization (MF) 模型越来越受到关注。这是一种在推荐系统、图像处理等领域广泛使用的矩阵分解技术。通过对用户-物品评分矩阵进行分解,可以得到用户和物品之间的潜在因素之间的关系,从而实现推荐和图像分析等功能。 本文就 Matrix Factorization 进行探讨,特别是概率模型下的 MF 模型。首先,我们将介绍概率统计中一些基本概念和术语;然后,描述 MF 的高斯分布作为先验知识假设所导致的非正定性问题,并给出相应的解决方案——对角协方差矩阵的修正;最后,提出了一个新的概率模型,即多任务学习的 VB 推断,能够有效地处理同时拟合多个任务的情况,并进行结构发现。此外,还会进一步讨论两种新颖的模型:Hierarchical Latent Variable Model 和 Hierarchical Bayesian Model,它们对 MF 模型进行了改进,使得模型更健壮,适用于不同数据类型的数据集。

2.基本概念与术语

2.1 概率

概率(probability) 是随机事件发生的可能性。如果一个事件发生的概率是$p(x)$,则称$X$为随机变量,$x$为其取值。如果$X$是离散的,则概率$P(X=x_i)=p_i$,其中$x_i$表示第$i$个可能的值,$p_i>0$。如果$X$是连续的,则概率$p(x)$具有无限多个小数值,分布由概率密度函数表示。概率密度函数(Probability Density Function,PDF)用$f(x;\theta)$表示,其中

评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI天才研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值