给大家分享5篇关于实体描述的计算机专业论文

今天分享的是关于实体描述的5篇计算机毕业论文范文, 如果你的论文涉及到实体描述等主题,本文能够帮助到你 面向网络安全的知识图谱补全技术研究 这是一篇关于网络安全,知识图谱补全

今天分享的是关于实体描述的5篇计算机毕业论文范文, 如果你的论文涉及到实体描述等主题,本文能够帮助到你

面向网络安全的知识图谱补全技术研究

这是一篇关于网络安全,知识图谱补全,实体描述,实体嵌入增强的论文, 主要内容为近年来,智能搜索、知识问答、推荐系统等上层应用对知识图谱完备性的需求催生了知识图谱补全技术,而知识表示学习是知识图谱补全中的重要一环,针对网络安全知识库包含的结构类信息较少的特点,利用实体描述信息建模能提升知识表示学习相关任务的性能。实体描述和对应的结构信息均包含多层语义,但在实体链接预测中不是所有的语义均有助于推理。目前主流的融合实体描述信息的知识表示学习模型仅对实体描述信息的相关语义进行识别,而没有对实体结构信息进行处理。针对这个问题,本文提出一种融合实体描述信息的增强实体嵌入模型Conv R(DA-LSTM),该模型基于点积注意力机制获取实体描述相关语义,基于关系映射矩阵获取实体结构相关语义,并且针对实体描述信息的特点设计了一个基于Glo Ve+Bi LSTM的组合编码模型。此外,针对网络安全知识图谱入度高这一特点,本文创新性地把融合实体描述信息后的实体嵌入放到基于卷积神经网络的知识表示学习框架下进行训练。本文进一步从网络安全知识库中抽取部分与网络入侵相关的数据作为训练和评测模型所用的网络安全数据集,并且基于该数据集在实体链接预测任务上对提出的Conv R(DA-LSTM)模型进行了对比实验。实验结果说明Conv R(DA-LSTM)模型相较于基线模型能够有效地利用实体描述信息对实体的相关语义进行增强,且在Hits@20指标上最多有2.8%的提升。本文进一步设计实验说明点积注意力机制对实体描述中的相关语义有更强的捕获能力,而且本文提出的对实体进行关系属性增强方法在补全实用性上要优于全属性增强。

基于深度学习的知识图谱补全模型研究

这是一篇关于知识图谱补全,深度学习,胶囊网络,实体描述的论文, 主要内容为知识图谱是一种用来对不同类别实体进行表示的多关系图,现在已经逐渐变成了知识管理的关键工具之一。但是在构建知识图谱过程中普遍存在着实体或关系缺失的问题,因此人们提出了知识图谱补全技术来对知识图谱缺失的信息进行补全,通过使用各种表示技术构建出了许多知识补全模型。随着深度学习的发展,越来越多的知识图谱补全模型开始使用深度学习的技术来提高模型的补全能力。例如,使用胶囊网络的补全模型和结合实体描述等附加信息的补全模型都取得了很好的效果。虽然胶囊网络补全模型很好的解决了卷积神经网络模型中存在的空间不变性和编码效率低的问题,但对于实体之间的潜在依赖关系难以进行捕获,并且Softmax在动态路由中的使用,会增加模型预测的失误。此外,不论是使用实体信息还是使用有序关系路径信息进行知识图谱补全的模型都仅仅使用了单一的附加信息,未能有效的利用多种知识图谱中的附加信息进行知识表示,从而影响知识图谱补全的能力。针对胶囊网络中存在的问题,我们提出了基于关系记忆的分散动态路由胶囊网络模型(RDMCaps E)。该模型可以利用关系记忆网络有效捕获三元组的潜在依赖关系生成嵌入向量,然后使用多尺度的胶囊网络模型进行特征处理,并在胶囊网络模型的动态路由部分使用我们改进的分散动态路由提高胶囊网络的性能。通过实验证明,将关系记忆网络引入胶囊网络模型中可以有效的提高知识图谱补全的能力,而且分散动态路由在关联性更强的数据集中对模型的提升效果更加显著。针对单一附加信息模型存在的问题,我们提出了一个融合有序关系路径和实体描述信息的知识图谱补全模型(OPDRL)。该模型可以使用两层池化有效的获取有序关系路径表示,然后使用Transformer和关系注意力机制对实体描述信息进行表示,最后我们将这两部分同能有效处理知识图谱中复杂关系的Trans R模型共同融合训练。通过实验表明,使用有序关系路径和实体描述信息融合训练的OPDRL模型同仅使用其中任意一种附加信息的模型相比都有着更加优越的性能。而且在Transformer中我们使用的功率归一化PN代替层归一化LN进行归一化的方法,通过消融实验表明能有效提高知识图谱补全的能力。

基于深度学习的知识图谱补全模型研究

这是一篇关于知识图谱补全,深度学习,胶囊网络,实体描述的论文, 主要内容为知识图谱是一种用来对不同类别实体进行表示的多关系图,现在已经逐渐变成了知识管理的关键工具之一。但是在构建知识图谱过程中普遍存在着实体或关系缺失的问题,因此人们提出了知识图谱补全技术来对知识图谱缺失的信息进行补全,通过使用各种表示技术构建出了许多知识补全模型。随着深度学习的发展,越来越多的知识图谱补全模型开始使用深度学习的技术来提高模型的补全能力。例如,使用胶囊网络的补全模型和结合实体描述等附加信息的补全模型都取得了很好的效果。虽然胶囊网络补全模型很好的解决了卷积神经网络模型中存在的空间不变性和编码效率低的问题,但对于实体之间的潜在依赖关系难以进行捕获,并且Softmax在动态路由中的使用,会增加模型预测的失误。此外,不论是使用实体信息还是使用有序关系路径信息进行知识图谱补全的模型都仅仅使用了单一的附加信息,未能有效的利用多种知识图谱中的附加信息进行知识表示,从而影响知识图谱补全的能力。针对胶囊网络中存在的问题,我们提出了基于关系记忆的分散动态路由胶囊网络模型(RDMCaps E)。该模型可以利用关系记忆网络有效捕获三元组的潜在依赖关系生成嵌入向量,然后使用多尺度的胶囊网络模型进行特征处理,并在胶囊网络模型的动态路由部分使用我们改进的分散动态路由提高胶囊网络的性能。通过实验证明,将关系记忆网络引入胶囊网络模型中可以有效的提高知识图谱补全的能力,而且分散动态路由在关联性更强的数据集中对模型的提升效果更加显著。针对单一附加信息模型存在的问题,我们提出了一个融合有序关系路径和实体描述信息的知识图谱补全模型(OPDRL)。该模型可以使用两层池化有效的获取有序关系路径表示,然后使用Transformer和关系注意力机制对实体描述信息进行表示,最后我们将这两部分同能有效处理知识图谱中复杂关系的Trans R模型共同融合训练。通过实验表明,使用有序关系路径和实体描述信息融合训练的OPDRL模型同仅使用其中任意一种附加信息的模型相比都有着更加优越的性能。而且在Transformer中我们使用的功率归一化PN代替层归一化LN进行归一化的方法,通过消融实验表明能有效提高知识图谱补全的能力。

面向网络安全的知识图谱补全技术研究

这是一篇关于网络安全,知识图谱补全,实体描述,实体嵌入增强的论文, 主要内容为近年来,智能搜索、知识问答、推荐系统等上层应用对知识图谱完备性的需求催生了知识图谱补全技术,而知识表示学习是知识图谱补全中的重要一环,针对网络安全知识库包含的结构类信息较少的特点,利用实体描述信息建模能提升知识表示学习相关任务的性能。实体描述和对应的结构信息均包含多层语义,但在实体链接预测中不是所有的语义均有助于推理。目前主流的融合实体描述信息的知识表示学习模型仅对实体描述信息的相关语义进行识别,而没有对实体结构信息进行处理。针对这个问题,本文提出一种融合实体描述信息的增强实体嵌入模型Conv R(DA-LSTM),该模型基于点积注意力机制获取实体描述相关语义,基于关系映射矩阵获取实体结构相关语义,并且针对实体描述信息的特点设计了一个基于Glo Ve+Bi LSTM的组合编码模型。此外,针对网络安全知识图谱入度高这一特点,本文创新性地把融合实体描述信息后的实体嵌入放到基于卷积神经网络的知识表示学习框架下进行训练。本文进一步从网络安全知识库中抽取部分与网络入侵相关的数据作为训练和评测模型所用的网络安全数据集,并且基于该数据集在实体链接预测任务上对提出的Conv R(DA-LSTM)模型进行了对比实验。实验结果说明Conv R(DA-LSTM)模型相较于基线模型能够有效地利用实体描述信息对实体的相关语义进行增强,且在Hits@20指标上最多有2.8%的提升。本文进一步设计实验说明点积注意力机制对实体描述中的相关语义有更强的捕获能力,而且本文提出的对实体进行关系属性增强方法在补全实用性上要优于全属性增强。

面向网络安全的知识图谱补全技术研究

这是一篇关于网络安全,知识图谱补全,实体描述,实体嵌入增强的论文, 主要内容为近年来,智能搜索、知识问答、推荐系统等上层应用对知识图谱完备性的需求催生了知识图谱补全技术,而知识表示学习是知识图谱补全中的重要一环,针对网络安全知识库包含的结构类信息较少的特点,利用实体描述信息建模能提升知识表示学习相关任务的性能。实体描述和对应的结构信息均包含多层语义,但在实体链接预测中不是所有的语义均有助于推理。目前主流的融合实体描述信息的知识表示学习模型仅对实体描述信息的相关语义进行识别,而没有对实体结构信息进行处理。针对这个问题,本文提出一种融合实体描述信息的增强实体嵌入模型Conv R(DA-LSTM),该模型基于点积注意力机制获取实体描述相关语义,基于关系映射矩阵获取实体结构相关语义,并且针对实体描述信息的特点设计了一个基于Glo Ve+Bi LSTM的组合编码模型。此外,针对网络安全知识图谱入度高这一特点,本文创新性地把融合实体描述信息后的实体嵌入放到基于卷积神经网络的知识表示学习框架下进行训练。本文进一步从网络安全知识库中抽取部分与网络入侵相关的数据作为训练和评测模型所用的网络安全数据集,并且基于该数据集在实体链接预测任务上对提出的Conv R(DA-LSTM)模型进行了对比实验。实验结果说明Conv R(DA-LSTM)模型相较于基线模型能够有效地利用实体描述信息对实体的相关语义进行增强,且在Hits@20指标上最多有2.8%的提升。本文进一步设计实验说明点积注意力机制对实体描述中的相关语义有更强的捕获能力,而且本文提出的对实体进行关系属性增强方法在补全实用性上要优于全属性增强。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码客栈网 ,原文地址:https://m.bishedaima.com/lunwen/54901.html

相关推荐

发表回复

登录后才能评论