给大家分享5篇关于图学习的计算机专业论文

今天分享的是关于图学习的5篇计算机毕业论文范文, 如果你的论文涉及到图学习等主题,本文能够帮助到你 基于GPU图采样的大图模型训练系统的设计与实现 这是一篇关于图学习

今天分享的是关于图学习的5篇计算机毕业论文范文, 如果你的论文涉及到图学习等主题,本文能够帮助到你

基于GPU图采样的大图模型训练系统的设计与实现

这是一篇关于图学习,图采样,大规模图处理,GPU的论文, 主要内容为图深度学习方法作为分析图数据的有力工具被广泛应用于解决各种现实世界问题,并取得了巨大成功。随着图数据规模的快速增长,如何高效训练大规模图模型成为学术界和工业界关注的热门研究问题。现有的大规模图模型训练系统往往存在着图采样效率低、硬件配置需求高昂、可扩展性低等问题。对此,本论文围绕单机多卡环境下的大图模型训练,对基于GPU的大图采样、大规模异构图在多GPU上的计算子图生成、基于子图训练的大规模图模型训练等环节进行深入研究,设计并实现了基于GPU图采样的大图模型训练系统。具体而言,完成如下工作:1)为了解决GPU图采样中存储需求大、传输开销高的挑战,本论文提出了分块图压缩算法CGC。CGC利用新提出的线性估计压缩算法与混合编码方式,在压缩率与解压缩性能之间取得平衡。实验和理论分析证明CGC可以有效减少图文件大小并降低传输开销,同时支持以常数级别复杂度快速访问压缩后的邻居列表。2)实现了基于CGC算法的压缩图快速采样系统GraSS。它采用顶点并行模式,在单GPU上实现了多种对压缩图的图采样方法,加速图学习的端到端性能。在多张真实世界图和合成图上的实验结果表明,当目前最先进GPU采样系统不能有效完成采样任务时,GraSS仍可以高效支持大规模图上的各种图采样方法。3)当扩展到单机多GPU系统时,面对更大的图规模与更复杂的图结构,本论文设计并实现了多GPU计算子图生成技术。它采用分块策略提高生成的并行性能,能够高效完成图划分、图采样两阶段计算子图生成任务。通过真实世界中亿级顶点、十亿级边的大规模异构图验证了技术方案的有效性,为基于GPU图采样的大图模型训练系统提供训练数据支撑。4)设计并实现了基于GPU图采样的大图模型训练系统。该系统基于子图训练策略,可以在单机多卡环境下完成对大规模异构图的训练。系统通过随机子图组合策略缓解了子图训练带来的精度下降问题。而在大规模图数据上的实验表明,系统在减少一半GPU计算资源的情况下仍然能够有效完成图模型的训练任务。

基于图神经网络的图学习算法研究

这是一篇关于深度学习,图神经网络,图嵌入,图学习的论文, 主要内容为近年来,图神经网络在社交网络、推荐系统、分子化学和知识图谱等领域取得了显著的成果。一方面,它解决了深度学习方法难以处理非欧式空间数据的问题,另一方面,它提供了一种对非规则数据提取特征的方法。图结构数据是生活中广泛存在的一种数据结构,与欧氏空间的数据不同,图结构可以更好的反映节点之间的联系。随着图神经网络的迅速发展,许多针对图结构数据的研究也如雨后春笋般涌现,这些研究主要包括节点表示、链接预测和图学习等。图学习旨在利用已有的图结构信息以及节点的特征得到一个更好的图的表示,以便于更好的服务于下游分析任务。此外,现实世界中的图常常会夹杂噪声、不完整或是无法获取,图学习可以很好的解决这些问题。本文在图神经网络的基础上对图学习方法进行了研究,主要的工作如下:(1)提出了一种用于解决图学习问题的通用框架,该框架将图学习模型分解为特征表示模型和图优化模型两部分,然后用双层规划问题的优化框架去交替优化这两个子模型,从而简化了在不同任务场景下,图学习模型的设计过程。(2)针对图中存在噪声和图结构不完整的情况,提出了一种基于特征表示与自适应节点邻域的图优化模型。该模型先通过图卷积网络来学习图中节点的隐特征表示,然后基于学习到的隐表示,用自适应节点邻域模型来优化节点的图结构,优化后的图既可以用于节点分类任务,又能在链接预测任务上保持不俗的效果。(3)针对图结构缺失的情况,提出了一种特征表示与注意力机制的图生成模型。该模型通过图的频谱卷积生成节点的全局邻接信息,同时用注意力机制捕捉图的局部结构,由此得到一个有效的邻接矩阵。并通过对节点隐特征表示的可视化,及其在节点分类任务上的表现验证了所提出的图生成模型的有效性。

基于深度学习的金融时间序列预测与应用研究

这是一篇关于深度学习,金融时间序列预测,图学习,超图,ConvLSTM网络的论文, 主要内容为伴随信息科技的快速发展,以人工智能为代表的计算机技术与社会各行业的交叉融合日益紧密。其中,基于机器学习的智能模型在金融领域的各类研究中被广泛应用。金融时间序列预测是利用相关技术手段研究金融市场未来运行趋势的一种方法,对其研究具有重要的理论意义和应用价值。然而,金融时间序列数据通常具有大波动性、高噪声和强非线性等典型特征,对该类数据的预测研究存在诸多难点。深度学习近年来得到快速发展,在多领域展现出强大的特征学习能力和模型性能。本文通过构造各类深度学习模型,针对股票价格序列等金融数据的特征建模、预测及其应用等问题展开研究,主要贡献和创新之处有以下几个方面:(1)针对如何有效建模多股票序列之间存在的时空相关性问题,提出了一种基于时空超图学习的多维金融时间序列预测模型。在时序特征学习方面,采用长短期记忆网络(Long Short-Term Memory,LSTM)+Attention机制对多维股票序列的时序依赖关系进行建模。在空间特征学习方面,通过采用行业关系、wiki关系等先验知识,利用超图模型对股票之间存在的先验关联性进行建模。为了弥补先验知识时效性弱的缺点,通过数据驱动的方法,引入互信息技术进一步衡量股票的时序价格序列之间的相关性,并通过图学习框架与超图模型实现特征的融合学习。(2)针对如何有效学习金融时间序列中时间敏感性特征的问题,采用将时间序列转为二维图像的研究思路,提出了一种多特征融合的卷积LSTM网络(Convolutional LSTM network,Conv LSTM)预测模型。首先,通过格拉米差分角场技术,将时间序列及其特征转换为二维图像。其次,提出一种新型的多特征融合方法来学习金融时间序列中的长期时间依赖性。最后,在Conv LSTM的门控机制中引入模糊控制机制,处理数据中的自相似性和时间/日期敏感波动模式。(3)利用上述所提出的金融时间序列预测模型,分别构建了多股票推荐系统以及外汇交易系统,并基于真实的金融时间序列数据集对所提模型进行相关的实证分析。

基于GPU图采样的大图模型训练系统的设计与实现

这是一篇关于图学习,图采样,大规模图处理,GPU的论文, 主要内容为图深度学习方法作为分析图数据的有力工具被广泛应用于解决各种现实世界问题,并取得了巨大成功。随着图数据规模的快速增长,如何高效训练大规模图模型成为学术界和工业界关注的热门研究问题。现有的大规模图模型训练系统往往存在着图采样效率低、硬件配置需求高昂、可扩展性低等问题。对此,本论文围绕单机多卡环境下的大图模型训练,对基于GPU的大图采样、大规模异构图在多GPU上的计算子图生成、基于子图训练的大规模图模型训练等环节进行深入研究,设计并实现了基于GPU图采样的大图模型训练系统。具体而言,完成如下工作:1)为了解决GPU图采样中存储需求大、传输开销高的挑战,本论文提出了分块图压缩算法CGC。CGC利用新提出的线性估计压缩算法与混合编码方式,在压缩率与解压缩性能之间取得平衡。实验和理论分析证明CGC可以有效减少图文件大小并降低传输开销,同时支持以常数级别复杂度快速访问压缩后的邻居列表。2)实现了基于CGC算法的压缩图快速采样系统GraSS。它采用顶点并行模式,在单GPU上实现了多种对压缩图的图采样方法,加速图学习的端到端性能。在多张真实世界图和合成图上的实验结果表明,当目前最先进GPU采样系统不能有效完成采样任务时,GraSS仍可以高效支持大规模图上的各种图采样方法。3)当扩展到单机多GPU系统时,面对更大的图规模与更复杂的图结构,本论文设计并实现了多GPU计算子图生成技术。它采用分块策略提高生成的并行性能,能够高效完成图划分、图采样两阶段计算子图生成任务。通过真实世界中亿级顶点、十亿级边的大规模异构图验证了技术方案的有效性,为基于GPU图采样的大图模型训练系统提供训练数据支撑。4)设计并实现了基于GPU图采样的大图模型训练系统。该系统基于子图训练策略,可以在单机多卡环境下完成对大规模异构图的训练。系统通过随机子图组合策略缓解了子图训练带来的精度下降问题。而在大规模图数据上的实验表明,系统在减少一半GPU计算资源的情况下仍然能够有效完成图模型的训练任务。

基于图神经网络的图学习算法研究

这是一篇关于深度学习,图神经网络,图嵌入,图学习的论文, 主要内容为近年来,图神经网络在社交网络、推荐系统、分子化学和知识图谱等领域取得了显著的成果。一方面,它解决了深度学习方法难以处理非欧式空间数据的问题,另一方面,它提供了一种对非规则数据提取特征的方法。图结构数据是生活中广泛存在的一种数据结构,与欧氏空间的数据不同,图结构可以更好的反映节点之间的联系。随着图神经网络的迅速发展,许多针对图结构数据的研究也如雨后春笋般涌现,这些研究主要包括节点表示、链接预测和图学习等。图学习旨在利用已有的图结构信息以及节点的特征得到一个更好的图的表示,以便于更好的服务于下游分析任务。此外,现实世界中的图常常会夹杂噪声、不完整或是无法获取,图学习可以很好的解决这些问题。本文在图神经网络的基础上对图学习方法进行了研究,主要的工作如下:(1)提出了一种用于解决图学习问题的通用框架,该框架将图学习模型分解为特征表示模型和图优化模型两部分,然后用双层规划问题的优化框架去交替优化这两个子模型,从而简化了在不同任务场景下,图学习模型的设计过程。(2)针对图中存在噪声和图结构不完整的情况,提出了一种基于特征表示与自适应节点邻域的图优化模型。该模型先通过图卷积网络来学习图中节点的隐特征表示,然后基于学习到的隐表示,用自适应节点邻域模型来优化节点的图结构,优化后的图既可以用于节点分类任务,又能在链接预测任务上保持不俗的效果。(3)针对图结构缺失的情况,提出了一种特征表示与注意力机制的图生成模型。该模型通过图的频谱卷积生成节点的全局邻接信息,同时用注意力机制捕捉图的局部结构,由此得到一个有效的邻接矩阵。并通过对节点隐特征表示的可视化,及其在节点分类任务上的表现验证了所提出的图生成模型的有效性。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码工坊 ,原文地址:https://m.bishedaima.com/lunwen/55033.html

相关推荐

发表回复

登录后才能评论