利用关系主题模型和因子分解机进行Web API推荐
1. 模型参数优化
在监督学习模型中,为了优化模型参数,需要定义一个损失函数$l$,以最小化观测数据$S$上的损失总和。优化函数如下:
$$Opt(S) = \arg \min_{H} \sum_{i=1}^{N} l(\hat{y}(x_i), y) + \sum_{h \in H} k(h)h^2$$
其中,参数集$H = (w_0, w, V)$是最终的优化目标,通过最小化Mashup和Web API训练实例中每对$(x_i, x_j)$的观测值$y$和预测值$\hat{y}(x|H)$之间的误差总和来获得。$N$是训练实例的数量,$k(h)$是正则化参数。在Web API预测中,损失函数$l$可以定义为逻辑损失:
$$l(\hat{y}, y) = \log(1 + \exp(-\hat{y}y))$$
为了解决优化函数$Opt(S)$并获得参数$H = (w_0, w, V)$的最优解,可以使用一些常见的优化学习方法,如随机梯度下降(SGD)、马尔可夫链蒙特卡罗(MCMC)、交替最小二乘法(ALS)等。其中,SGD算法因其简单性、适用于不同的损失函数以及较低的计算成本和存储复杂度,在优化因子分解模型中非常流行。SGD算法对每个样本$(x, y) \in S$进行迭代,并对模型参数进行如下更新:
$$h \leftarrow h - \eta(\frac{\partial}{\partial h} l(\hat{y}(x), y) + 2k(h)h)$$
其中,$\eta \in R^+$是梯度下降的学习率或步长,$h \in H$。
2. 实验设置
为了评
RTM与因子分解机的API推荐
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



