基于图神经网络的会话推荐系统研究
这是一篇关于图神经网络,会话推荐,推荐系统,注意力机制,霍克斯过程的论文, 主要内容为推荐系统(Recommendation System,RS)是人工智能最普遍的应用之一,它可以帮助用户缓解信息过载的压力。然而,传统的推荐系统通常需要用户档案和历史交互记录,但是随着个性化推荐和个人隐私之间冲突的增加,很多用户的身份和信息可能是未知的。为解决此问题,会话推荐系统(Session-Based Recommendation System,SBRS)利用用户在消费过程中产生的匿名会话序列来学习用户的偏好。目前最先进的方法是基于图神经网络(Graph Neural Network,GNN)的会话推荐系统,但存在以下问题:(1)目前大多数研究只考虑了单个会话中项目之间的交互关系,忽略了不同会话中项目之间的交互信息,这些不同但高度相似的会话对推荐性能具有重要作用。(2)现有的推荐系统模型仅将用户最后一次点击的项目表示为短期偏好,忽略了会话内点击量之间的交互关系和相对位置信息。解决这些问题是提高会话推荐系统性能的关键。针对上述问题进行研究,本文提出了两个基于图神经网络的会话推荐系统的改进模型,主要创新点如下:(1)针对现有会话推荐模型在跨会话信息提取问题上的不足,提出了一种基于邻居增强的图神经网络(Neighbor Enhanced Contextual Graph Neural Network,NECGNN)的会话推荐系统。该模型首先利用K近邻算法筛选出与目标会话最相似的Top-K个邻居会话,并将最相似的会话建模到同一张图中,组成邻居增强图,用以学习不同但相似的会话中项目之间的交互信息,以缓解单个会话中项目交互有限的问题;其次,该模型还利用Fastformer网络捕获会话的全局上下文信息,以获取用户的全局偏好。最后,在Diginetica和Yoochoose1/64两个公开数据集上与其他先进推荐模型进行对比实验,实验结果证明了提出的NECGNN模型相比于其他模型推荐精度更高。(2)针对现有会话推荐模型大都简单的将会话的最后一个项目表示作为用户短期偏好,以及忽视了会话内项目的相对位置信息等问题,提出了基于霍克斯过程和图神经网络(Hawkes Process and Graph Neural Network,HPGNN)的会话推荐系统。该模型提出了包含图神经位置感知层和图神经霍克斯层的双流结构来分别学习用户的长期和短期偏好。一方面,在图神经位置感知层,首先利用门控图神经网络(Gated Graph Neural Network,GGNN)来捕捉各个节点之间的交互关系用于后续处理,并且引入了衰减的残差网络将过去的编码信息与当前网络融合;其次,还引入位置感知注意力网络捕获会话的位置信息,通过会话的位置矩阵查询到项目的位置向量嵌入,并且与最终的项目表示相加,得到位置感知后的项目表示,以表示用户的长期偏好。另一方面,受霍克斯过程(Hawkes Process,HP)启发,在图神经霍克斯层,引入霍克斯强度函数来考虑项目事件点击量之间的交互信息,利用霍克斯过程结合图神经网络来捕捉点击量之间的交互影响,并将结果作为用户的短期偏好,以弥补仅仅将最后一项的项目表示作为用户短期偏好的缺陷,来提高模型的推荐性能。最后,在Diginetica和Yoochoose1/64这两个公开数据集上与其他推荐模型进行对比实验,证明了提出的HPGNN模型在推荐精度上相比其他模型更加优越。
基于图神经网络的推荐算法研究
这是一篇关于推荐系统,图神经网络,会话推荐,意外兴趣推荐,短会话的论文, 主要内容为会话推荐根据用户的行为序列来预测下一个点击目标,但处理会话数据时常面临数据稀疏问题。目前主流的方法是基于图神经网络聚合用户和项目节点的高阶邻域来丰富特征信息。然而基于图神经网络的推荐算法仍然存在问题:其一,过度丰富特征信息会造成推荐过度专业化,使用户产生厌烦心理。关注推荐的意外性能有效缓解推荐过度专业化,但其性能取决于模型是否能够充分学习目标特征信息;其二,会话推荐通常依据长会话来学习用户兴趣偏好特征。这种方式虽然避免了短会话推荐的预测挑战性以及短会话学习不充分所造成的负面影响,但是也忽略了短会话所包含的用户特征信息。一些研究者通过引入短会话的上下文会话作为补充信息,但都无法保证能精确找到相似上下文以及有效学习短会话的特征信息。针对目前基于图神经网络的会话推荐算法中存在的问题,本文主要研究内容如下:(1)意外兴趣推荐模型大都存在特征学习不够充分的问题。针对这一问题,本文提出了一种基于图神经网络的意外兴趣推荐系统。首先,使用图神经网络进行数据预处理,以聚合目标节点的高阶邻域特征。其次,通过基于注意力机制的个性化循环神经网络学习用户的行为序列,该网络能够发掘当前用户的长期与短期兴趣偏好。然后,利用意外兴趣模型学习用户的意外兴趣。最后,将用户长短期兴趣和意外兴趣加权为用户推荐下一项目。在三个通用数据集上进的实验结果表明,相比于选择的基线模型,本文模型的推荐性能更优。(2)由于会话推荐中短会话信息稀少,如何从短会话中学习更丰富的用户偏好和更精确的找到相似上下文会话成为了一个亟需解决的问题。针对这一问题,本文提出了一种多特征融合短会话推荐模型。首先,使用图神经网络和门控循环单元学习短会话节点的高阶邻域和序列特征。然后,通过自定义的上下文会话检索网络筛选相似会话作为短会话的补充信息。最后,利用位置感知多头自注意力网络发掘目标会话和上下文会话的位置感知特征,将两者加权输出为当前用户推荐下一项目。本文在两个通用会话数据集上进行了实验,结果表明本文模型性能优于所选对比模型。本文的研究成果,提升了意外兴趣推荐和短会话推荐的特征学习能力,使得推荐算法更符合人类的思维模式和更适应复杂的数据环境,从而为用户提供更人性化和更精确的推荐,扩展了会话推荐在更广泛领域的应用。
基于图神经网络的会话推荐方法研究
这是一篇关于会话推荐,图卷积神经网络,循环神经网络,注意力机制,残差网络的论文, 主要内容为推荐系统通过对海量的用户与物品间的交互数据进行处理,向用户进行个性化推荐。会话推荐是推荐系统中的一个重要分支,旨在解决匿名用户的推荐结果不准确的问题。会话推荐能够对用户进行实时性推荐,仅根据用户的历史点击操作就能为用户进行相关推荐,给用户带来良好的使用体验。目前,会话推荐方法主要分为三类,分别是基于传统机器学习的方法、基于深度学习的方法以及基于图神经网络的方法。通过对这三类方法的分析和总结,发现现阶段的研究方法仍然存在三个问题:一是会话图中邻域节点的潜在信息未被充分利用,且大多数方法对会话图的编码仍然只是将其转化为序列数据进行处理;二是在进行深层网络训练的过程中,长距离的历史会话信息会在传播过程中被漏接,信息不能被完整传递;三是在获取会话信息的过程中,需要考虑不同的点击项信息对推荐结果的影响程度。针对上述问题,本文提出了基于图卷积循环神经网络的会话推荐模型和基于扩展因果图卷积循环神经网络的会话推荐模型,本文的主要工作如下:第一,提出基于图卷积循环神经网络会话推荐模型。考虑到会话图数据节点分布空间结构与邻居节点传播的特征信息在单独使用循环神经网络建模的过程中不能被获取,本文提出将图卷积神经网络与循环神经网络相结合的会话推荐模型。该模型首先将会话数据构造为会话图,将会话图数据输入到图卷积神经网络层中,得到包含了会话图节点空间结构信息和邻居传播特征信息的点击项潜在向量,然后将点击项潜在向量输入到循环神经网络层中,捕获会话数据的点击项依赖关系与时序信息,得到点击项隐藏层向量表示,将所有点击项隐藏层向量组合构成全局会话向量,并且与局部会话向量进行拼接形成会话嵌入向量,最后将其与点击项向量进行线性转换得到推荐结果。第二,提出基于扩展因果图卷积循环神经网络的会话推荐模型。针对长距离历史信息在深层网络训练中会被漏接的问题,该模型使用扩展因果卷积神经网络层来对会话图数据进行编码与推理。首先将会话图数据输入到引入了扩展因子的因果卷积中,在扩展因果卷积中添加了残差块来提高模型的泛化能力,从而得到了包含更多潜在信息的会话点击项嵌入向量。将点击项嵌入向量输入到循环神经网络中,获得包含会话内点击项之间的依赖关系和时序信息的点击项隐藏层向量表示。将隐藏层向量输入到注意力网络层中,为不同的点击项隐藏层向量分配不同的权重。最终将具有不同权重值的点击项隐藏层向量组合为全局会话向量,并且与局部会话向量进行拼接,再通过线性转换得到最终的推荐结果。由于会话数据具有因果性并且拥有严格的时间约束,所以能够通过因果卷积对其建模,引入扩展因子可以在减少网络层数的同时获得更大的感受野,捕获到更多的输入信息。残差网络将浅层网络层信息通过残差连接传播到高层网络中,因此整个扩展卷积网络层解决了长距离历史信息漏接的问题。注意力机制通过给重要的点击项向量分配更多的权重,使模型能够获得更多有用的信息,忽略掉无关信息对模型推荐结果的影响,从而提升了模型的推荐效果。本文在两个公开数据集Yoochoose和Diginetica上进行实验,实验结果表明,在两个数据集上,本文提出的两个模型在P@20上最高提升了0.74%与1.11%,在MRR@20上提高了0.73%与1.30%。从而验证了本文模型的有效性。
基于深度学习的会话推荐方法研究
这是一篇关于推荐系统,会话推荐,多表示空间,位置,流行度偏差的论文, 主要内容为传统的推荐系统无法持续追踪和记录非登录用户的行为数据,导致某些情景下的推荐效果不尽人意。会话推荐旨在根据匿名会话进行推荐,非常适用于解决匿名场景下的推荐问题。目前,会话推荐已经受到学术界和工业界的广泛关注,越来越多的研究人员开始投入到会话推荐领域的研究。本文对于会话推荐,进行了以下两部分内容的研究:(1)CORE是一个简单高效的会话推荐框架,它统一了编码与解码过程中的表示空间,解决了预测不一致问题。虽然CORE超越了许多现有的方法,但它给出的两种学习权重的方法太过简单,无法充分学习权重。为了进一步改进学习权重的方法,本文提出了一种基于多表示空间的位置和偏离度增强的CORE模型PD-COREM。PDCOREM将位置和偏离度引入CORE以学习项目的权重。同时,为了避免位置和偏离度之间的干扰,PD-COREM将项目嵌入到两个独立的表示空间中,并根据这两种信息分别在这两个不同的表示空间上学习权重。在4个真实数据集上进行的广泛实验表明,PD-COREM优于CORE以及NARM、SR-GNN等许多其他最先进的模型。(2)流行度偏差问题也是推荐系统中长期存在的挑战。对于会话推荐中的流行度偏差问题,当前一个流行做法是通过归一化将项目和会话的表示约束在单位超球面上。虽然这种归一化方法在一定程度上缓解了流行度偏差,但偏差依然存在。为了进一步解决该问题,本文在现有研究的基础上提出一种基于推荐分数修正的去流行度偏差方法RRS,通过计算项目在多个会话的推荐分数来获取流行度,并利用流行度修正项目对于单个会话的推荐分数。在3个基模型和3个公开的数据集上进行了实验,结果表明该方法具有更强的去流行度偏差能力。
基于图神经网络的会话推荐系统研究
这是一篇关于图神经网络,会话推荐,推荐系统,注意力机制,霍克斯过程的论文, 主要内容为推荐系统(Recommendation System,RS)是人工智能最普遍的应用之一,它可以帮助用户缓解信息过载的压力。然而,传统的推荐系统通常需要用户档案和历史交互记录,但是随着个性化推荐和个人隐私之间冲突的增加,很多用户的身份和信息可能是未知的。为解决此问题,会话推荐系统(Session-Based Recommendation System,SBRS)利用用户在消费过程中产生的匿名会话序列来学习用户的偏好。目前最先进的方法是基于图神经网络(Graph Neural Network,GNN)的会话推荐系统,但存在以下问题:(1)目前大多数研究只考虑了单个会话中项目之间的交互关系,忽略了不同会话中项目之间的交互信息,这些不同但高度相似的会话对推荐性能具有重要作用。(2)现有的推荐系统模型仅将用户最后一次点击的项目表示为短期偏好,忽略了会话内点击量之间的交互关系和相对位置信息。解决这些问题是提高会话推荐系统性能的关键。针对上述问题进行研究,本文提出了两个基于图神经网络的会话推荐系统的改进模型,主要创新点如下:(1)针对现有会话推荐模型在跨会话信息提取问题上的不足,提出了一种基于邻居增强的图神经网络(Neighbor Enhanced Contextual Graph Neural Network,NECGNN)的会话推荐系统。该模型首先利用K近邻算法筛选出与目标会话最相似的Top-K个邻居会话,并将最相似的会话建模到同一张图中,组成邻居增强图,用以学习不同但相似的会话中项目之间的交互信息,以缓解单个会话中项目交互有限的问题;其次,该模型还利用Fastformer网络捕获会话的全局上下文信息,以获取用户的全局偏好。最后,在Diginetica和Yoochoose1/64两个公开数据集上与其他先进推荐模型进行对比实验,实验结果证明了提出的NECGNN模型相比于其他模型推荐精度更高。(2)针对现有会话推荐模型大都简单的将会话的最后一个项目表示作为用户短期偏好,以及忽视了会话内项目的相对位置信息等问题,提出了基于霍克斯过程和图神经网络(Hawkes Process and Graph Neural Network,HPGNN)的会话推荐系统。该模型提出了包含图神经位置感知层和图神经霍克斯层的双流结构来分别学习用户的长期和短期偏好。一方面,在图神经位置感知层,首先利用门控图神经网络(Gated Graph Neural Network,GGNN)来捕捉各个节点之间的交互关系用于后续处理,并且引入了衰减的残差网络将过去的编码信息与当前网络融合;其次,还引入位置感知注意力网络捕获会话的位置信息,通过会话的位置矩阵查询到项目的位置向量嵌入,并且与最终的项目表示相加,得到位置感知后的项目表示,以表示用户的长期偏好。另一方面,受霍克斯过程(Hawkes Process,HP)启发,在图神经霍克斯层,引入霍克斯强度函数来考虑项目事件点击量之间的交互信息,利用霍克斯过程结合图神经网络来捕捉点击量之间的交互影响,并将结果作为用户的短期偏好,以弥补仅仅将最后一项的项目表示作为用户短期偏好的缺陷,来提高模型的推荐性能。最后,在Diginetica和Yoochoose1/64这两个公开数据集上与其他推荐模型进行对比实验,证明了提出的HPGNN模型在推荐精度上相比其他模型更加优越。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设项目助手 ,原文地址:https://m.bishedaima.com/lunwen/47846.html