Multi-modal Knowledge-aware Reinforcement Learning Network for Explainable Recommendation(用于可解释推荐的多模态知识感知强化学习网络)
摘要
知识图谱(KGs)可以为推荐系统提供丰富的结构化信息,提高准确性并执行显式推理。深度强化学习(RL)也引起了对个性化推荐的极大兴趣。两者的结合在进行可解释的因果推断程序和改进基于图结构的推荐性能方面有很大的潜力。然而,大多数基于KG的推荐系统侧重于异构知识图谱中实体之间丰富的语义关系,因此未能充分利用与实体对应的图像信息。为了解决这些问题,我们提出了一种新颖的多模态知识感知强化学习网络(MKRLN),它通过在多模态知识图(MKG)中提供实际路径来将推荐和可解释性结合起来。MKRLN可以通过组合实体的结构信息和视觉信息生成路径表示,并利用MKG中路径的序列依赖性推断代理-MKG交互的潜在合理性。此外,由于KG具有太多的属性和实体,它们与RL的结合导致强化学习空间中有太多的动作空间和状态,这使得动作空间的搜索变得复杂。此外,为了解决这个问题,我们提出了一种新的分层注意力路径,使用户将注意力集中在他们感兴趣的项目上。这减少了知识图谱中的关系和实体,进而减少了RL中的动作空间和状态,缩短了到目标实体的路径,并提高了推荐的准确性。
一、介绍
用户通常先看海报再看介绍,最后决定看不看该电影,说明图片含有信息,有利于更好的推荐。
一种用于解释推荐系统的多模态方法。代理从用户开始,并在多模态知识图(MKGs)上进行多跳逻辑路径,以发现适合