本文为 「茶桁的 AI 秘籍 - BI 篇 第 15 篇」

Hi,你好。我是茶桁。
上一节课咱们介绍了推荐系统中使用的矩阵分解的原理,讲到最终我们设定了模型目标。
有了机器学习去解这个目标,要用到一些优化的方法。常见的优化方法有两种,一个叫 ALS,交替最小二乘法。还有一个就是 SGD,随机梯度下降。
ALS 求解方法
我们来看看,ALS 是怎样一个原理。交替最小二乘法有点像我们拧螺丝的一个过程,就是固定一边求解另一边。
上一节课中我们有了 user 矩阵和 item 矩阵,12*3的 user 和3*9的 item 这两个矩阵都是未知,都是模型要去求的。一个方程有两个未知,R 是已知。
一个方程有两个未知能依次求解出来吗?如果 item 已经知道了,R 也知道了,把 user 求出来这个很有可能。但是如果 R 知道,user 和 item 都不确定的话一次是不能求解出来的。
那怎么办?我们就要固定一个求解另一个,这叫做交替最小二乘法。
- step1: 固定 Y 优化 X
- step2: 固定 X 优化 Y
重复 step1 和 2,每一次求解过程都是一个收敛的,去拟合参数的过程。
最小二乘法的应用
最小二乘实际上我们都不陌生,在中学期间做过一些物理实验,物理老师就会说我们的实验报告要多次求解。
举个场景,比如要测量一把尺子,这个尺子到底有多长咱们做了 5 次实验,分别是 9.8、9.9、9.8、10.2 和 10

订阅专栏 解锁全文
1818

被折叠的 条评论
为什么被折叠?



