LESSR 处理基于会话的推荐的图神经网络信息丢失 推荐系统经典文章阅读

先前介绍了SRGNN,其中给出了一种基于会话的推荐方法,注重项目之间的复杂转换,并且将会话序列建模为图结构数据。发布在KDD20上。

前置知识

图神经网络:Graph neural networks (GNNs)是直接对图数据进行操作的神经网络。 它们用于学习任务,例如图分类、节点分类和链接预测问题。本文只关注图分类问题,因为基于会话的推荐可以表述为这样的问题。

图神经网络处理图分类问题的建模 G = ( V , E ) G=(V,E) G=(V,E)是给定的图, V V V E E E是点和边的集合。每个节点 i ∈ V i\in V iV与一个节点特征向量 x i x_i xi关联,该向量作为初始节点表示传递到 GNN 的第一层。
大多数 GNN 可以从消息传递的角度来理解。在 GNN 的每一层中,节点表示通过沿边传递消息来更新。该过程可以表述如下:
x i ( l + 1 ) = f u p d ( l ) ( x i ( l ) , arg ⁡ i ( l ) ) arg ⁡ i ( l ) = f a g g ( l ) ( { f m s g ( l ) ( x i ( l ) , x j ( l ) ) : ( j , i ) ∈ E i n ( i ) } ) \begin{aligned}&x_{i}^{(l+1)}=f_{upd}^{(l)}\left(x_{i}^{(l)},\arg_{i}^{(l)}\right)\\&\arg_{i}^{(l)}=f_{agg}^{(l)}\left(\left\{f_{msg}^{(l)}\left(x_{i}^{(l)},x_{j}^{(l)}\right):(j,i)\in E_{in}(i)\right\}\right)\end{aligned} xi(l+1)=fupd(l)(xi(l),argi(l))argi(l)=fagg(l)({ fmsg(l)(xi(l),xj(l)):(j,i)Ein(i)})
其中 x i ( l ) x_{i}^{(l)} xi(l)是节点 i i i l l l层的表示, E i n ( i ) E_{in}(i) Ein(i)是节点 i i i的传入边集, f m s g ( l ) f_{msg}^{(l)} fmsg(l)计算从邻近节点传播到目标节点的消息, f a g g ( l ) f_{agg}^{(l)} fagg(l)聚合传递到目标节点的信息。 f u p d ( l ) f_{upd}^{(l)} fupd(l)根据原始节点表示和聚合信息计算新节点表示。
L L L是GNN的层数,在 L L L层中传递 L L L步消息后,最终节点表示将捕获有关图结构和 L L L跳社区内节点特征的信息。
对于图分类任务,通过读出函数 f o u t f_{out} fout聚合最后一层中所有节点的表征来生成图级表示 h G \boldsymbol{h}_G hG
h G = f o u t ( { x i ( L ) : i ∈ V } ) \boldsymbol{h}_G=f_{out}(\{\boldsymbol{x}_i^{(L)}:i\in V\}) hG=fout({ xi(L):iV})

概述(动机与存在的问题)

原文概述:最近,图神经网络 (GNN) 因其在各种应用中令人信服的性能而越来越受欢迎。许多先前的研究也尝试将 GNN 应用于基于会话的推荐并获得了有希望的结果。然而,我们发现这些基于 GNN 的会话推荐方法存在两个信息丢失问题,即有损会话编码问题无效的长距离依赖捕获问题。第一个问题是有损会话编码问题。由于从会话到图的有损编码以及消息传递过程中的排列不变聚合,一些关于项目转换的顺序信息被忽略。第二个问题是无效的长距离依赖捕获问题。由于层数有限,无法捕获会话内的一些长距离依赖关系。为了解决第一个问题,我们提出了一种无损编码方案和一种基于 GRU 的边序保留聚合层,专门用于处理无损编码的图。为了解决第二个问题,我们提出了一个快捷图注意层,通过沿快捷连接传播信息来有效地捕获长距离依赖关系。通过结合这两种层,我们能够构建一个不存在信息丢失问题的模型,并且在三个公共数据集上的表现优于最先进的模型。

从中得到的消息:当时(2022年)会话推荐的编码是有损的(会损失item顺序消息),第二个是长距离的依赖没有被算法捕获到,本文主要创造一种无损编码方案解决第一个问题,用图注意层引发解决第二个问题。

简介部分

首先介绍了会话推荐是什么(阅读SRGNN中总结为匿名、长度较短、数量众多),多数下一项推荐通过用户的历史行为挖掘序列模式学习用户偏好,会话推荐属于特殊的下一项推荐,因其会当前会话的信息具有强相关性

但是当前的GNN-based方法引有两个信息丢失问题,分别是有损会话编码问题无效的长距离依赖捕获问题
有损会话编码问题(lossy session encoding problem):下图可对应两个序列 [ v 1 , v 2 , v 3 , v 3 , v 2 , v 2 , v 4 ] [v_1,v_2,v_3,v_3,v_2,v_2,v_4] [v1,v2,v3,v3,v2,v2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值