基于深度矩阵分解的混合推荐算法
这是一篇关于推荐系统,深度矩阵分解,矩阵补全,低秩矩阵拟合,k-means聚类的论文, 主要内容为21世纪是互联网快速发展的时代。在这个阶段,网络平台上的数据呈现出疯狂增长的趋势,人们更容易获取丰富信息的同时,也需要利用大量时间和精力寻找自己感兴趣的信息,进而引发了“信息过载”问题。为了方便、准确地选出用户所感兴趣的信息、商品等,智能化推荐算法应运而生。传统矩阵分解采用双线性映射,破坏了原始数据的结构。因此引入深度神经网络,采用非线性映射,减少了对数据的破坏,提高了推荐算法的性能。但融入了神经网络的推荐算法仍然存在数据稀疏性高、冷启动等问题。针对这些问题,本文在深度矩阵分解的基础上进行改进,提出了基于补全的深度矩阵分解的混合推荐算法。首先,提出融合矩阵补全与深度矩阵分解的混合推荐算法。通过核函数最小化模型将原始矩阵中的未知元素进行填补;再利用深度学习模型分别构建用户和项目潜在特征向量。其次,提出结合低秩矩阵拟合与深度矩阵分解的混合推荐算法。利用低秩矩阵拟合对缺失数据进行补全,并得到两个隐特征矩阵;再将隐特征矩阵作为深度神经网络的输入,建立非线性映射。最后,提出基于k-means聚类和奇异值分解预填充的自适应深度矩阵分解算法。对用户矩阵和项目矩阵分别聚类,再使用SVD对聚类后的矩阵进行分解,得到填充后的两个矩阵;再对数据预处理,通过多层维数不同的神经网络,进行评分的预测。对上述的三种混合推荐算法在公开数据集上进行测试,结果表明:这三种混合算法不仅缓解了冷启动和数据集中高维稀疏数据的影响,而且与深度矩阵分解相比,所提算法显著地提高了推荐系统的性能。
基于深度矩阵分解的推荐系统研究
这是一篇关于神经网络,推荐系统,协同过滤,矩阵分解,深度矩阵分解,规范化交叉熵损失函数,基于注意力的深度矩阵分解,注意力机制的论文, 主要内容为在当前信息化时代,由于信息的大量产生导致了信息爆炸,因而引起了信息过载,这是人们需要面对的一个困境。推荐系统通过根据用户的需求来个性化地满足用户的需要,成为缓解这一状况的有力工具。因为它可以快速地将信息生产者生产的信息展现到需要它的信息消费者面前,从而实现信息生产者和信息消费者的双赢。现在,在电子商务、信息分发、音乐视频等等信息技术行业发挥着重要的作用,例如:淘宝上的商品推荐、今日头条上的新闻推荐、网易云音乐上的音乐推荐等等。传统的推荐算法大体可以分为协同过滤算法、基于内容的推荐算法和混合推荐算法。其中被广泛使用的是协同过滤算法,根据已产生的用户与物品之间的交互记录来提取用户的行为偏好,根据提取出的模式来为用户做推荐,在协同过滤算法中,矩阵分解一直是研究的前沿。基于内容的推荐是根据用户已交互的内容的属性信息来推荐具有相似属性的内容,所以有一个很好的特点就是可以对推荐做出解释,更让用户信服。混合推荐算法是融合用户与物品的各种信息如性别、年龄、地区、文本、图像、标签等等这些多源异构信息(Side Information)来进行推荐,可以有效缓解冷启动和数据稀疏问题。本文对于神经网络在推荐系统上的应用进行研究,特别专注于神经网络应用于矩阵分解。针对现有模型的问题如:表示能力有限、无法有效应对稀疏数据集等,本文对其进行了研究,提出了以下解决办法:1.针对于模型表示能力有限和无法有效应对稀疏数据集的问题,提出深度矩阵分解模型(Deep Matrix Factorization,DMF),根据用户的历史打分信息构造包含显式打分和隐式反馈的输入,使用多层次非线性变换来将用户和物品映射到同一个深度结构化语义空间,使得在这个空间中可以使用余弦函数来计算用户和物品之间交互的可能性,根据预测出的交互的可能性来进行推荐。2.针对于交叉熵损失函数未考虑打分高低对于全局的影响的问题,设计了一个新的损失函数,规范化交叉熵损失函数(Normalized Cross Entropy,NCE),实验中也证明了 NCE的有效性。3.针对于DMF中用户(物品)对于不同物品(用户)状态始终不变的问题,提出了基于注意力的深度矩阵分解(Attention based Deep Matrix Factoriza-tion,AttnDMF),结合注意力机制的特点,使得用户(物品)对于不同的物品(用户)所展现的状态有所不同,从而使得AttnDMF更具有个性化,获取更好的推荐效果。对于本文提出的深度矩阵分解模型、规范化交叉熵损失函数和基于注意力的深度矩阵分解模型,其相关的原理和实现公开在①。本文在多个数据集上进行了广泛的实验,证明其可以获得更好的效果,同时也分析了它们对于超参数的敏感性。
结合用户评论的深度矩阵分解模型
这是一篇关于个性化推荐,神经网络,深度矩阵分解,带偏置的矩阵分解,隐语义模型的论文, 主要内容为随着互联网技术的迅速发展,大数据时代下信息过载的问题日益严重。能够提供个性化信息服务的推荐系统成为解决上述问题的主要技术,而其中的矩阵分解模型因其简单高效且准确度高得到了广泛的关注。传统的仅使用用户对商品评分信息的矩阵分解模型及其他协同过滤方法容易受到评分稀疏的影响而效果不佳。现实生活中,广泛存在于网络且容易获取的用户评论能一定程度反映用户的喜好和被评论商品的特征,因此结合评论文本的个性化推荐算法的研究为评分矩阵稀疏问题提供了一个有效的解决途径。受到Bias SVD思想的启发,采用深度矩阵分解模型的网络框架,结合用户评分及评论信息,提出了一种新的深度矩阵分解模型DMFCUR。该模型利用多层前馈神经网络从评分矩阵中学习到用户喜好和商品特征,利用带注意力机制的卷积神经网络从评论文本中学习到用户偏置和商品偏置,进而获得用户和商品对应的隐语义向量,然后将隐语义向量的乘积作为评分的预测值从而实现个性化推荐。同时通过形式化的说明解释了DMFCUR模型是Bias SVD的一种神经网络实现方式,为其有效性提供了理论依据。最后,在真实数据集上开展了大量的实验,结果表明提出的模型在数据十分稀疏的数据集上表现优于现有主流的方法。
融合评分矩阵与评论文本的混合推荐算法的研究
这是一篇关于推荐系统,BERT,注意力机制,门限递归单元,深度矩阵分解的论文, 主要内容为互联网的高速发展使得用户正在面临信息爆炸的问题。推荐系统通过提供个性化的商品推荐服务来辅助用户进行决策,从而减轻消费者因选择过多而产生的焦虑和困惑。基于评分矩阵的推荐算法可以根据用户的评分模式对用户和商品进行建模,但该类算法面临严重的数据稀疏性问题。而用户生成的评论文本可以反应用户的喜好和商品特征等语义信息,利用这些信息可以有效缓解数据的稀疏性问题,从而提高模型推荐的准确率。本文主要基于深度学习技术,对融合评分矩阵与评论文本的混合推荐算法进行研究,取得的主要研究成果如下:(1)提出了基于BERT和注意力机制的双向门限递归单元的文本分析模型。首先,引入BERT作为词嵌入层来提取评论文本的语义信息。然后,针对卷积神经网络卷积核大小固定、不能有效处理文本序列的问题,提出了使用双向门限递归单元来编码评论文本,从两个方向捕获词的上下文信息,使模型能够更加准确地理解评论文本所表达出的含义。最后,通过引入注意力机制给每条评论赋予不同的权值,使模型能够聚焦于更加有用的评论。同时,采用深度矩阵分解模型来提取评分特征,解决了传统矩阵分解模型只能提取低阶、线性特征的问题,增强了特征向量间交互学习的能力。(2)提出了一种基于评分信息与评论文本特征的深度融合方法。由于基于评分矩阵与评论文本分别提取到的特征向量具有不同源性,所以他们被输出到不同的特征空间后不能进行联合学习。本文提出的深度融合方法通过串联因子分解机和多层感知机实现了多源特征间的交互学习,进一步提升了推荐的准确率。最后,在亚马逊的5个公开数据集上对所提出的模型进行了实验验证。实验结果表明,与多个较好的基于评论文本的深度推荐基准模型相比,本文所提出的模型预测误差最低,平均预测误差MSE和RMSE分别降低了大约3.99%和2.04%。
基于深度矩阵分解的混合推荐算法
这是一篇关于推荐系统,深度矩阵分解,矩阵补全,低秩矩阵拟合,k-means聚类的论文, 主要内容为21世纪是互联网快速发展的时代。在这个阶段,网络平台上的数据呈现出疯狂增长的趋势,人们更容易获取丰富信息的同时,也需要利用大量时间和精力寻找自己感兴趣的信息,进而引发了“信息过载”问题。为了方便、准确地选出用户所感兴趣的信息、商品等,智能化推荐算法应运而生。传统矩阵分解采用双线性映射,破坏了原始数据的结构。因此引入深度神经网络,采用非线性映射,减少了对数据的破坏,提高了推荐算法的性能。但融入了神经网络的推荐算法仍然存在数据稀疏性高、冷启动等问题。针对这些问题,本文在深度矩阵分解的基础上进行改进,提出了基于补全的深度矩阵分解的混合推荐算法。首先,提出融合矩阵补全与深度矩阵分解的混合推荐算法。通过核函数最小化模型将原始矩阵中的未知元素进行填补;再利用深度学习模型分别构建用户和项目潜在特征向量。其次,提出结合低秩矩阵拟合与深度矩阵分解的混合推荐算法。利用低秩矩阵拟合对缺失数据进行补全,并得到两个隐特征矩阵;再将隐特征矩阵作为深度神经网络的输入,建立非线性映射。最后,提出基于k-means聚类和奇异值分解预填充的自适应深度矩阵分解算法。对用户矩阵和项目矩阵分别聚类,再使用SVD对聚类后的矩阵进行分解,得到填充后的两个矩阵;再对数据预处理,通过多层维数不同的神经网络,进行评分的预测。对上述的三种混合推荐算法在公开数据集上进行测试,结果表明:这三种混合算法不仅缓解了冷启动和数据集中高维稀疏数据的影响,而且与深度矩阵分解相比,所提算法显著地提高了推荐系统的性能。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码客栈 ,原文地址:https://m.bishedaima.com/lunwen/55554.html