8个研究背景和意义示例,教你写计算机多视图学习论文

今天分享的是关于多视图学习的8篇计算机毕业论文范文, 如果你的论文涉及到多视图学习等主题,本文能够帮助到你 协同训练框架下联合使用文本与图片的推荐方法研究 这是一篇关于推荐系统

今天分享的是关于多视图学习的8篇计算机毕业论文范文, 如果你的论文涉及到多视图学习等主题,本文能够帮助到你

协同训练框架下联合使用文本与图片的推荐方法研究

这是一篇关于推荐系统,多视图学习,协同训练,文本,图片,神经网络的论文, 主要内容为推荐系统通过分析用户对物品的历史行为来为用户推荐其可能感兴趣的物品。在实际场景中,用户对物品的历史行为信息往往是十分稀疏的,这会严重制约推荐系统性能。为了提升推荐系统的性能,现有的很多研究将物品的评论文本、图片等各种边信息加入到推荐系统中辅助推荐,取得了一定的效果。然而,现有的解决方法大多关注单一边信息,甚少有同时利用多种边信息的整体解决方案。事实上,同时利用多种边信息可以更加全面地表示用户偏好和物品属性,进而提升推荐算法的性能。因此,本文提出了协同训练框架下联合使用文本与图片的推荐方法,其主要创新点有:(1)首次使用协同训练这一多视图学习技术来整合文本和图片两种边信息用于推荐。该方法不仅使用文本和图片来提升了推荐算法性能,还为同时使用多种边信息用于推荐提供了一种新的思路。多视图学习是利用多源信息进行学习的重要方法。使用多视图学习可以让不同视图中的互补信息得到交换进而提升模型学习性能。协同训练是一种多视图学习技术,其利用具有不同视图的基模型互相标注无标记样本来实现信息的交换。面对高维异质的文本和图像数据,本文使用深度神经网络,分别从评论文本和物品图片中提取出低维的用户和物品的特征表示。然后使用提取出的特征构造了两个分别具有文本视图和图片视图的基模型。为了使两个视图的基模型互相学习,本文使用协同训练来联合训练两个不同视图的基模型。(2)提出了一种伪标记样本的可信性验证方法,防止协同训练过程中使用不可信的伪标记样本造成模型性能衰减。在协同训练的过程中,每个视图中的基模型会标注一部分无标记样本(得到的样本称为伪标记样本),用于另一视图中基模型的迭代训练。由于模型的标注结果不一定是可信的,本文提出了一种验证方法,保证伪标记样本的可信性,避免因为使用不可信的伪标记样本造成模型性能下降。最后,经过在三个公开数据集上进行大量的实验,结果表明本文的方法好于使用单种边信息的方法,并且退化实验显示了伪标记样本可信性验证方法的有效性。实验充分证明了本文方法的有效性,显示该方法能够有效提升推荐算法的性能。

基于多视图知识图谱嵌入的实体对齐技术研究

这是一篇关于知识图谱嵌入,多视图学习,实体对齐,表示学习的论文, 主要内容为近来,知识图谱作为人工智能领域的重要组成部分,受到了众多研究者的关注。单个知识图谱很难满足实际的应用需求,而不同知识图谱之间存在冗余、异构等问题,因此知识图谱融合成为该领域的热点问题。实体对齐是其中的重要任务之一,它旨在发现来自不同知识图谱且在真实世界中表示相同事物的实体。已有工作大多关注实体的结构信息,而知识图谱中仍有多种的特征信息未被充分利用。多种特征信息的使用能够提升知识图谱嵌入效果,使得嵌入模型具有较好的鲁棒性。本文的重点研究内容包括:利用多视图数据进行知识图谱嵌入,解决对监督数据的过分依赖问题,以及利用关系或属性对齐增强实体对齐。本文提出了一个新颖的基于多视图知识图谱嵌入的实体对齐框架,Multi KE。针对实体对齐任务,该框架能够整合利用实体的多视图信息,同时具有较好的可扩展性。主要内容和贡献如下:1.定义了三种具有代表性的视图,分别是:名称视图、关系视图和属性视图,并结合每个视图的特点,制定了适合的嵌入模型;2.提出了一个基于多视图知识图谱嵌入的实体对齐框架,从实体以及关系和属性两个层面设计了跨知识图谱训练方式;3.提出了三种视图组合策略,组合多个视图的嵌入结果,以获得最终的用于实体对齐任务的实体表示;4.进行了多项实验,实验结果表明Multi KE在实体对齐任务上明显优于当前已有方法,同时本文通过几个验证实验深入探究了Multi KE在各个方面的性能。

基于多视图知识图谱嵌入的实体对齐技术研究

这是一篇关于知识图谱嵌入,多视图学习,实体对齐,表示学习的论文, 主要内容为近来,知识图谱作为人工智能领域的重要组成部分,受到了众多研究者的关注。单个知识图谱很难满足实际的应用需求,而不同知识图谱之间存在冗余、异构等问题,因此知识图谱融合成为该领域的热点问题。实体对齐是其中的重要任务之一,它旨在发现来自不同知识图谱且在真实世界中表示相同事物的实体。已有工作大多关注实体的结构信息,而知识图谱中仍有多种的特征信息未被充分利用。多种特征信息的使用能够提升知识图谱嵌入效果,使得嵌入模型具有较好的鲁棒性。本文的重点研究内容包括:利用多视图数据进行知识图谱嵌入,解决对监督数据的过分依赖问题,以及利用关系或属性对齐增强实体对齐。本文提出了一个新颖的基于多视图知识图谱嵌入的实体对齐框架,Multi KE。针对实体对齐任务,该框架能够整合利用实体的多视图信息,同时具有较好的可扩展性。主要内容和贡献如下:1.定义了三种具有代表性的视图,分别是:名称视图、关系视图和属性视图,并结合每个视图的特点,制定了适合的嵌入模型;2.提出了一个基于多视图知识图谱嵌入的实体对齐框架,从实体以及关系和属性两个层面设计了跨知识图谱训练方式;3.提出了三种视图组合策略,组合多个视图的嵌入结果,以获得最终的用于实体对齐任务的实体表示;4.进行了多项实验,实验结果表明Multi KE在实体对齐任务上明显优于当前已有方法,同时本文通过几个验证实验深入探究了Multi KE在各个方面的性能。

协同训练框架下联合使用文本与图片的推荐方法研究

这是一篇关于推荐系统,多视图学习,协同训练,文本,图片,神经网络的论文, 主要内容为推荐系统通过分析用户对物品的历史行为来为用户推荐其可能感兴趣的物品。在实际场景中,用户对物品的历史行为信息往往是十分稀疏的,这会严重制约推荐系统性能。为了提升推荐系统的性能,现有的很多研究将物品的评论文本、图片等各种边信息加入到推荐系统中辅助推荐,取得了一定的效果。然而,现有的解决方法大多关注单一边信息,甚少有同时利用多种边信息的整体解决方案。事实上,同时利用多种边信息可以更加全面地表示用户偏好和物品属性,进而提升推荐算法的性能。因此,本文提出了协同训练框架下联合使用文本与图片的推荐方法,其主要创新点有:(1)首次使用协同训练这一多视图学习技术来整合文本和图片两种边信息用于推荐。该方法不仅使用文本和图片来提升了推荐算法性能,还为同时使用多种边信息用于推荐提供了一种新的思路。多视图学习是利用多源信息进行学习的重要方法。使用多视图学习可以让不同视图中的互补信息得到交换进而提升模型学习性能。协同训练是一种多视图学习技术,其利用具有不同视图的基模型互相标注无标记样本来实现信息的交换。面对高维异质的文本和图像数据,本文使用深度神经网络,分别从评论文本和物品图片中提取出低维的用户和物品的特征表示。然后使用提取出的特征构造了两个分别具有文本视图和图片视图的基模型。为了使两个视图的基模型互相学习,本文使用协同训练来联合训练两个不同视图的基模型。(2)提出了一种伪标记样本的可信性验证方法,防止协同训练过程中使用不可信的伪标记样本造成模型性能衰减。在协同训练的过程中,每个视图中的基模型会标注一部分无标记样本(得到的样本称为伪标记样本),用于另一视图中基模型的迭代训练。由于模型的标注结果不一定是可信的,本文提出了一种验证方法,保证伪标记样本的可信性,避免因为使用不可信的伪标记样本造成模型性能下降。最后,经过在三个公开数据集上进行大量的实验,结果表明本文的方法好于使用单种边信息的方法,并且退化实验显示了伪标记样本可信性验证方法的有效性。实验充分证明了本文方法的有效性,显示该方法能够有效提升推荐算法的性能。

基于深度学习与计算机视觉的驾驶行为检测系统设计

这是一篇关于多视角驾驶行为图像数据集,多视图学习,深度神经网络,多任务学习的论文, 主要内容为我国的汽车保有量已跃居世界第一,汽车驾驶人数增长十分迅速,而根据世界卫生组织于2020年的道路交通事故报告显示,全球每年约有130万人死于交通事故,道路交通事故造成的经济损失约占其生产总值的3%,而驾驶行为分心驾驶和疲劳驾驶造成的交通事故已经超过了全部事故的35%。因此针对分心驾驶和疲劳驾驶的识别检测工作十分必要,本文基于多视图学习和多任务学习建立了多视图分心驾驶行为识别模型和多任务分心驾驶行为和疲劳驾驶特征联合识别模型,并基于疲劳驾驶的疲劳特征确认了疲劳驾驶判定策略,以此实现驾驶行为检测系统,为提高我国道路交通安全贡献自己的一份力量。本文主要工作如下:首先,本文建立了多视角驾驶行为图像数据集NMDA数据集并提出了多视图分心驾驶行为识别模型MMob Net。基于分心驾驶行为识别和疲劳驾驶行为识别两种任务的需求视角不同建立了多视角驾驶行为图像数据集NMDA数据集,并进行了数据集有效性实验,确认了NMDA数据集的有效性和可靠性。以多视图模型MVCNN为模型基础框架,并提出视图注意力机制VAM模块,建立了多视图分心驾驶行为识别模型MMob Net。通过实验后,确认了MMob Net模型对单任务模型的优越性,准确率高出10%以上,同时使用了VAM模块的MMobe Net模型较同类型多视图模型准确率高1.02%,并进行MMob Net的视角组合对比确认视角1、2、3的组合可以在略微降低模型准确率的同时大幅降低数据需求规模。然后,本文确认了疲劳驾驶行为识别方案并提出了多任务分心驾驶行为和疲劳特征联合识别多任务模型MTDFNet。在疲劳驾驶行为识别方案中使用Retina Face作为人脸检测器,采集人脸区域图像分为上下眼部和嘴部图像建立疲劳特征数据集EMFD,建立疲劳特征识别模型MEMNet。以分心驾驶行为识别模型MMob Net和疲劳特征识别模型MEMNet为基础结构,利用多任务学习建立多任务模型MTDFNet。通过实验,确认了训练MTDFNet模型使用的损失函数和loss组合算法,得到了较为优秀的模型准确率,分心驾驶行为识别和疲劳特征识别两个子任务的准确率分别为91.22%和93.30%,较与对应的单任务模型,疲劳特征识别任务虽然降低了0.47%,但更为困难的分心驾驶行为识别任务准确率提高了3.7%,证明了多任务学习可以提高部分子任务性能的特点。最后,本文完成了驾驶行为检测系统的设计与实现工作。基于疲劳特征识别模型MEMNet确认了疲劳驾驶的疲劳特征判定策略并进行了测试,得到了关键参数闭眼帧数占比上限和张嘴时间占比上限。使用Pyqt5作为系统设计框架,建立了可视化界面和包含界面的驾驶行为检测系统并进行了系统测试,结果显示,该系统能够有效地运行。

基于深度学习与计算机视觉的驾驶行为检测系统设计

这是一篇关于多视角驾驶行为图像数据集,多视图学习,深度神经网络,多任务学习的论文, 主要内容为我国的汽车保有量已跃居世界第一,汽车驾驶人数增长十分迅速,而根据世界卫生组织于2020年的道路交通事故报告显示,全球每年约有130万人死于交通事故,道路交通事故造成的经济损失约占其生产总值的3%,而驾驶行为分心驾驶和疲劳驾驶造成的交通事故已经超过了全部事故的35%。因此针对分心驾驶和疲劳驾驶的识别检测工作十分必要,本文基于多视图学习和多任务学习建立了多视图分心驾驶行为识别模型和多任务分心驾驶行为和疲劳驾驶特征联合识别模型,并基于疲劳驾驶的疲劳特征确认了疲劳驾驶判定策略,以此实现驾驶行为检测系统,为提高我国道路交通安全贡献自己的一份力量。本文主要工作如下:首先,本文建立了多视角驾驶行为图像数据集NMDA数据集并提出了多视图分心驾驶行为识别模型MMob Net。基于分心驾驶行为识别和疲劳驾驶行为识别两种任务的需求视角不同建立了多视角驾驶行为图像数据集NMDA数据集,并进行了数据集有效性实验,确认了NMDA数据集的有效性和可靠性。以多视图模型MVCNN为模型基础框架,并提出视图注意力机制VAM模块,建立了多视图分心驾驶行为识别模型MMob Net。通过实验后,确认了MMob Net模型对单任务模型的优越性,准确率高出10%以上,同时使用了VAM模块的MMobe Net模型较同类型多视图模型准确率高1.02%,并进行MMob Net的视角组合对比确认视角1、2、3的组合可以在略微降低模型准确率的同时大幅降低数据需求规模。然后,本文确认了疲劳驾驶行为识别方案并提出了多任务分心驾驶行为和疲劳特征联合识别多任务模型MTDFNet。在疲劳驾驶行为识别方案中使用Retina Face作为人脸检测器,采集人脸区域图像分为上下眼部和嘴部图像建立疲劳特征数据集EMFD,建立疲劳特征识别模型MEMNet。以分心驾驶行为识别模型MMob Net和疲劳特征识别模型MEMNet为基础结构,利用多任务学习建立多任务模型MTDFNet。通过实验,确认了训练MTDFNet模型使用的损失函数和loss组合算法,得到了较为优秀的模型准确率,分心驾驶行为识别和疲劳特征识别两个子任务的准确率分别为91.22%和93.30%,较与对应的单任务模型,疲劳特征识别任务虽然降低了0.47%,但更为困难的分心驾驶行为识别任务准确率提高了3.7%,证明了多任务学习可以提高部分子任务性能的特点。最后,本文完成了驾驶行为检测系统的设计与实现工作。基于疲劳特征识别模型MEMNet确认了疲劳驾驶的疲劳特征判定策略并进行了测试,得到了关键参数闭眼帧数占比上限和张嘴时间占比上限。使用Pyqt5作为系统设计框架,建立了可视化界面和包含界面的驾驶行为检测系统并进行了系统测试,结果显示,该系统能够有效地运行。

面向推荐系统的主动学习算法研究

这是一篇关于机器学习,推荐系统,主动学习,正类无标记学习,多视图学习的论文, 主要内容为随着网络技术的发展,互联网上的信息呈现爆炸式地增长,使得互联网用户很难从海量数据中找到自己感兴趣的内容。用户迫切需要一个应用来实现对海量内容的推荐和浏览。个性化推荐系统可以根据用户的兴趣向用户推荐个性化的内容,是解决信息过载的有效手段。在推荐系统中,推荐模型的训练需要大量有标记的数据,但是数据标记的获取通常是有代价的,有时甚至十分昂贵。具体来说,推荐系统中的数据标注代价主要来源于两个方面。一是用户行为标记的获取。在建立推荐系统的初期,往往缺乏足够的训练数据,而收集大量用户反馈数据又比较耗时。二是针对物品具体属性的标注。在基于内容的推荐系统中,往往需要对物品的属性信息进行人为的标注,标注代价较大。针对以上两种情况,本文分别提出两种主动学习算法,来降低推荐系统中模型训练所需的数据标注代价。文本的工作主要包括以下两个方面:一、面向推荐系统的PU主动学习。本文将推荐问题当作一个正类和无标记学习问题:用户与物品发生交互产生正类样本,用户和物品没有发生交互为无标记样本,利用正类和无标记样本训练分类模型,根据模型输出的预测值来推断用户对物品的喜好程度,并以此来进行推荐。在正类无标记学习中,当正类样本数目较少时,无法训练性能可靠的分类模型。为此本文设计了一种新的主动学习算法,选取的查询样本一方面使分类的期望误差最小,另一方面要尽可能地覆盖到整个样本空间,能够用较少的查询次数,增加对模型训练最有帮助的正类样本,达到减小标注代价的目的。实验证明,本文提出的算法能够有效降低基于正类无标记学习的推荐任务中的数据标注代价。二、面向视频推荐的多视图主动学习。在许多视频网站,推荐任务是通过对视频-用户对进行点击预测来实现的,其中视频是用从内容描述信息中提取的文本特征来表示的。然而,由于视频内容描述信息的缺失情况比较严重,往往需要进行人工标注。为了花费较少的标注代价训练性能较好的视频推荐模型,本文提出了一种主动学习算法,在充分利用视频廉价的视觉特征的同时,尽可能地减少视频文本信息的查询。一方面,本文通过同时最小化视觉特征到文本特征的重构误差以及文本特征到标记空间的分类误差,训练了一个从视觉视图和文本视图的映射;另一方面,本文基于预测不一致性和观看频率两个指标,提出了新的查询方法来查询重要视频的文本信息。实验证明,本文提出的方法能够有效减少视频推荐任务中的视频标注代价。

基于深度学习与计算机视觉的驾驶行为检测系统设计

这是一篇关于多视角驾驶行为图像数据集,多视图学习,深度神经网络,多任务学习的论文, 主要内容为我国的汽车保有量已跃居世界第一,汽车驾驶人数增长十分迅速,而根据世界卫生组织于2020年的道路交通事故报告显示,全球每年约有130万人死于交通事故,道路交通事故造成的经济损失约占其生产总值的3%,而驾驶行为分心驾驶和疲劳驾驶造成的交通事故已经超过了全部事故的35%。因此针对分心驾驶和疲劳驾驶的识别检测工作十分必要,本文基于多视图学习和多任务学习建立了多视图分心驾驶行为识别模型和多任务分心驾驶行为和疲劳驾驶特征联合识别模型,并基于疲劳驾驶的疲劳特征确认了疲劳驾驶判定策略,以此实现驾驶行为检测系统,为提高我国道路交通安全贡献自己的一份力量。本文主要工作如下:首先,本文建立了多视角驾驶行为图像数据集NMDA数据集并提出了多视图分心驾驶行为识别模型MMob Net。基于分心驾驶行为识别和疲劳驾驶行为识别两种任务的需求视角不同建立了多视角驾驶行为图像数据集NMDA数据集,并进行了数据集有效性实验,确认了NMDA数据集的有效性和可靠性。以多视图模型MVCNN为模型基础框架,并提出视图注意力机制VAM模块,建立了多视图分心驾驶行为识别模型MMob Net。通过实验后,确认了MMob Net模型对单任务模型的优越性,准确率高出10%以上,同时使用了VAM模块的MMobe Net模型较同类型多视图模型准确率高1.02%,并进行MMob Net的视角组合对比确认视角1、2、3的组合可以在略微降低模型准确率的同时大幅降低数据需求规模。然后,本文确认了疲劳驾驶行为识别方案并提出了多任务分心驾驶行为和疲劳特征联合识别多任务模型MTDFNet。在疲劳驾驶行为识别方案中使用Retina Face作为人脸检测器,采集人脸区域图像分为上下眼部和嘴部图像建立疲劳特征数据集EMFD,建立疲劳特征识别模型MEMNet。以分心驾驶行为识别模型MMob Net和疲劳特征识别模型MEMNet为基础结构,利用多任务学习建立多任务模型MTDFNet。通过实验,确认了训练MTDFNet模型使用的损失函数和loss组合算法,得到了较为优秀的模型准确率,分心驾驶行为识别和疲劳特征识别两个子任务的准确率分别为91.22%和93.30%,较与对应的单任务模型,疲劳特征识别任务虽然降低了0.47%,但更为困难的分心驾驶行为识别任务准确率提高了3.7%,证明了多任务学习可以提高部分子任务性能的特点。最后,本文完成了驾驶行为检测系统的设计与实现工作。基于疲劳特征识别模型MEMNet确认了疲劳驾驶的疲劳特征判定策略并进行了测试,得到了关键参数闭眼帧数占比上限和张嘴时间占比上限。使用Pyqt5作为系统设计框架,建立了可视化界面和包含界面的驾驶行为检测系统并进行了系统测试,结果显示,该系统能够有效地运行。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设港湾 ,原文地址:https://m.bishedaima.com/lunwen/54417.html

相关推荐

发表回复

登录后才能评论