摘要:
虽然协同过滤是个性化推荐的主流技术,但它只对用户-项目交互进行建模,不能为推荐提供具体的理由。与此同时,与用户-项目交互相关的丰富的侧信息(例如,用户统计数据和项目属性)提供了有价值的证据,说明为什么推荐适合于用户,但在提供解释方面还没有得到充分的探索。
在技术方面,基于嵌入的方法,例如广泛和深入的神经因子分解机,提供最先进的推荐性能。然而,它们的工作原理就像一个黑匣子,预测背后的原因无法明确地呈现出来。另一方面,决策树等基于树的方法通过从数据中推断决策规则来进行预测。虽然可以解释,但它们不能推广到不可见的特性交互,因此在协作过滤应用程序中会失败。在这项工作中,我们提出了一个新的解决方案,称为树增强嵌入方法结合了基于嵌入和基于树的模型的优点。我们首先使用一个基于树的模型来学习明确的决策规则(交叉特征)来自丰富的侧面信息。接下来,我们设计了一个嵌入模型,该模型可以包含显式交叉特征,并推广到用户ID和项目ID上不可见的交叉特征。嵌入方法的核心是一个易于解释的注意力网络,使得推荐过程完全透明和可解释。我们对旅游景点和餐厅推荐两个数据集进行了实验,证明了我们的解决方案的优越性能和可解释性。
相关工作:
我们大致可以将解释风格分为基于相似性和基于内容的类别。基于相似性的方法以最相似的用户或项目列表的形式给出解释。例如,Behnoush等人的使用限制玻尔兹曼机来计算top-K推荐列表中项目的可解释性得分。虽然基于相似性的解释可以作为解释CF推荐的通用解决方案,但缺点是它缺乏具体的推理。基于内容的作品考虑了各种侧面信息,从项目标签[38,40]、社会关系[31,37]、用户的上下文评论[13,15,28,31,48]到知识图谱,
结论:
本文提出了一种树增强嵌入方法(TEM),它无缝地结合了基于嵌入模型的泛化能力和基于树的模型的可解释性。由于基于树的部分具有明显的交叉特征和易于解释的注意网络,我们的解决方案的整个预测过程是完全透明和自解释的。同时,TEM
可以达到与目前最先进的推荐方法相媲美的性能。在未来,我们将把TEM扩展到三个方向。首先,我们尝试联合学习基于树和基于嵌入的模型,而不是分别对两个组件建模。这可以促进两个组件之间的信息传播。其次,我们考虑其他上下文信息,如时间、位置和用户情绪,以进一步丰富我们的解释能力。第三,我们将探讨将知识图和逻辑规则引入TEM的有效性
以下是自己的理解,欢迎指错。
1.CF利用user-item的历史交互记录,来计算用户或用户的相似性,从而进行top-k推荐,但放弃了其他额外的信息。在解释性方面,推荐的原因仅仅是你的朋友也喜欢,或者是和你购买的东西很相似,这是不足以让人信服的。
- 解决的问题:增强推荐可解释性的同时,增强推荐的准确度。
- 提出的模型:TEM = tree + embedding , 基于embedding的方法具有较强的泛化能力,但一旦额外信息丰富就会失去可解释性。基于tree的方法,既可以做到显性预测,生成的交叉特征可直接解释,但对于未观察到的数据是不能预测。 在TEM中,有两大重要部分,embedding和attention,embedding向量用于捕获交叉特征之间的相关性,使用GDBT和基于嵌入的协同过滤,把交叉特征投影到嵌入向量中;attetion具体模拟交叉特征的个性化权重,使用的是多层感知器MLPs。
- 具体方案:TEM 由两个模型组成,首先(explicity),利用GBDT在额外信息上有效地区分交叉特征,然后(explainable),将最有预测能力的交叉特征输入到一个基于嵌入的模型,该模型是neural attention network,根据预测对交叉特征重新加权。在tree中,每条path可看做一个交叉特征,叶子结点可看做这条path的预测值。GBDT梯度增强决策树,通过增加树 的数量来增强预测。后期,根据用户反馈,可以局部修改交叉特征,并修改相应的注意力权重,从而不用重新训练模型,就可以更新预测,并重排推荐列表。