分享5篇关于视线估计的计算机专业论文

今天分享的是关于视线估计的5篇计算机毕业论文范文, 如果你的论文涉及到视线估计等主题,本文能够帮助到你 车载安全监控系统 这是一篇关于行车安全,汽车黑匣子,物联网监控,视线估计

今天分享的是关于视线估计的5篇计算机毕业论文范文, 如果你的论文涉及到视线估计等主题,本文能够帮助到你

车载安全监控系统

这是一篇关于行车安全,汽车黑匣子,物联网监控,视线估计,轻量化神经网络的论文, 主要内容为近年来,智能汽车产业发展迅猛,传统汽车制造商、新一代智能汽车制造商以及大量互联网公司等都利用自己相关优势入局智能汽车产业。其中自动驾驶与智能座舱的研究与发展最为火热,但驾驶安全作为一切的前提也要给予足够的重视。从交通事故的发生因素分析,本文提取了两大需求背景,一是车辆自身运行状况的监测、记录与警示,二是驾驶员不当驾驶行为的判定,如疲劳、分心驾驶。基于上述,本文课题从车辆自身行驶状况以及驾驶员安全驾驶行为切入,设计了一款多端协同的安全驾驶监测系统。本文主要工作集中于基于ARM-Linux的嵌入式车载终端,另外有云端系统作为管理中心,移动手机端作为功能拓展。首先,本文对汽车黑匣子相关产品、以及分心检测研究现状做了分析整理,概述了本文车载安全监控系统涉及的关键技术。其次,基于需求设计实现了车载终端硬件电路,这为后续功能实现打下基础。之后,在车辆终端上实现行车记录子系统功能。实现行车数据实时采集、标准化地存储、利用MQTT与XXTEA加密实现云端参数上报功能、设计可靠UDP视频监控功能、实现OTA升级功能。另外,在驾驶员安全驾驶行为监测子系统上,实现基于人脸关键点计算眼部与嘴部纵横比的疲劳监测。创新性地提出并实验了基于通道分级卷积与Mobile Net轻量化处理的人脸视线估计模型,在Gaze360与MPIIGaze视线估计数据集上估计误差分别为12.23°与4.38°,网络运算量GFLOPs仅为0.388,实现了适合于嵌入式终端的轻量化视线估计模型。另外本文将视线估计迁移至驾驶环境内,用于判断驾驶员注意力区域,在LISA Data数据集上达到了96.78%的分类准确率。之后部署于车载终端并实际验证了其效果。最后,本文整合并完成了对整个系统的功能与效果测试,验证了功能的有效性与可靠性。本文设计的车载安全监控系统,既有极强的实用价值与落地基础,也对后续智能汽车安全监控终端与智能化管理提供了参考意义。

自由姿态下基于深度学习的视线估计技术研究

这是一篇关于自由姿态,视线估计,人脸检测,注意力机制,人机交互的论文, 主要内容为视线是人类交流时的非语言信息,借助视线可以更好地理解人类的行为和情感。视线估计是检测视线方向,定位注视点位置的过程,广泛应用在人机交互、汽车辅助驾驶及医疗诊断等方面。因此,本文对视线估计技术的研究具有重要的理论意义和实用价值。首先,本文设计了自由姿态下基于深度学习的视线估计系统整体框架。对比分析了常用的人脸检测算法,最终选取SSD(Single Shot Multi Box Detector)算法进行人脸检测。并针对该算法存在计算量较大,对小尺度和遮挡人脸检测精度较低的问题,提出了基于改进SSD的人脸检测算法,即利用轻量级网络Mobile Net V3替换传统SSD算法的主干网络VGG16,同时通过反卷积来融合深浅层特征,生成附加特征网络,与主干检测网络并行实现人脸的分类与回归。实验结果表明该算法能够实现快速、准确的人脸检测。然后利用ERT(Ensemble of Regression Trees)算法进行人脸关键点定位,为后续人眼图像的获取及头部姿态估计奠定基础。其次,针对基于眼睛图像的视线估计模型特征单一,对头部姿态鲁棒性较差,精度较低的问题,本文提出了基于多特征融合的视线估计模型。首先根据双眼关键点获取双眼图像,利用改进的图像梯度法进行瞳孔中心定位,采用EPn P(Efficient Pespective-n-Point)算法进行头部姿态估计;然后通过对多特征融合的研究,选定特征级融合方式将眼睛、头部姿态及瞳孔中心位置特征进行融合;最后利用融合后的特征进行视线估计。实验结果表明,该模型能够有效提高自由姿态下视线估计的精度和鲁棒性。然后,针对实际场景中头部姿态估计不准确及眼睛图像质量较低导致视线估计精度较低的问题,本文提出了基于注意力机制的多特征融合视线估计模型。即在视线估计模型中引入组卷积通道和空间注意力机制,使其能够自适应地选择并增强面部及双眼图像中与视线估计有关的重要特征,抑制背景等无关信息。同时,利用多特征融合模块将面部、眼睛及瞳孔中心位置特征进行融合,从而实现自由姿态下的视线估计。实验结果证明,该模型能够进一步降低自由头部姿态下视线估计的角误差,且对极端头部姿态及低质量图像也具有较好的鲁棒性。最后,本文构建了基于视线估计的服务机器人控制系统,将上位机的视线估计结果转换为控制机器人运动的字符指令,从而实现对机器人的控制。实验结果表明,本文提出的视线估计方法满足集成实现的要求,且能够有效控制服务机器人运动。

基于超图卷积的协同过滤推荐算法研究

这是一篇关于推荐系统,视线估计,超图卷积,协同过滤,注意力机制的论文, 主要内容为随着信息技术的高速发展,我们在享受互联网带来的便利时,也需要应对信息使用效率低的难题。面对海量的信息,性能良好的个性化推荐算法可以让用户快速找到自己感兴趣的内容,为企业带来巨大的经济效益。推荐系统数据集是基于用户的点击行为所收集的数据。在点击数据的采集过程中,由于误触、被夸张的标题或者图片吸引产生了大量的“假数据”,限制了模型的推荐效果。实际应用中能够采集到的用户行为数据是有限的,基于协同过滤的推荐算法难以从少量的训练数据中捕获用户和物品的高阶关系。针对这些问题,本文研究如何剔除“假数据”,如何从少量的训练数据中充分挖掘用户和物品之间的高阶关系,设计针对训练数据少的协同过滤推荐算法。主要研究内容和成果如下:针对如何消除推荐系统存在的“假数据”问题,提出了物品对用户的“吸引力”这一概念,并设计了一套吸引力数据采集方案。将吸引力定义为用户点击物品时注视点落在物品区域的分布比例,用户在点击物品时,计算物品对用户的吸引力,根据吸引力大小筛选掉“虚假”的点击数据。在设计的吸引力数据采集方案中,根据输入的用户视频,逐帧提取脸部、眼部图像并输入给注视点估计模型iTracker,得到估计的注视点。实验结果表明,在没有校准的情况下,注视点的估计误差稳定在1.8cm,在实际场景下采集吸引力数据具备可行性。针对如何从少量的训练数据中充分学习用户和物品之间的高阶关系问题,提出了基于注意力机制的超图卷积协同过滤推荐模型(AHGCF)。AHGCF模型利用超图结构建模用户和物品的高阶关系,使用注意力超图卷积网络更新节点的嵌入,引入Lambda Rank算法对推荐列表的顺序进行监督。对比分析了AHGCF模型与另外四个基于图神经网络协同过滤推荐模型的实验结果,相比基准模型中表现最好的LightGCN模型,AHGCF模型的召回率和精确率提高了9.21%和4.16%。设计了多组对比实验,探究各个模块和吸引力数据对AHGCF模型的性能影响。实验结果表明,模型在单个卷积层下即可达到良好的表现,在排序监督模块的作用下,AHGCF模型的归一化折损累计增益(ndcg)指标提高了5.29%。模拟产生吸引力数据,将吸引力数据以权重的形式引入到AHGCF模型,和仅使用点击数据相比,模型在召回率上提高了5.18%,ndcg提高了2.18%,吸引力数据明显提高了模型的推荐效果。

上下文感知与区域增强型全脸视线估计方法

这是一篇关于视线估计,深度学习,全脸外观,上下文感知,区域增强机制的论文, 主要内容为视线估计技术在人机交互、辅助驾驶、头戴设备等领域有广泛的应用前景与实用价值。随着计算机视觉的发展,基于深度学习的全脸视线估计方法成为研究热点,其中如何提高此方法的估计精度与鲁棒性是业界的难题。本文基于Res Net50作为主干网络,结合改进的感受野模块与提出的区域增强机制,建立了全脸视线估计模型。此模型在MPIIFace Gaze数据集与本地数据集上分别达到4.59°与4.93°的估计精度,与基准模型相比,展现出更高的估计精度与更强的鲁棒性。总结本文的主要工作如下:为更好地评估模型的性能,建立了本地全脸视线估计数据集。通过对比实验,从几种经典的人脸特征点检测算法中选出鲁棒性最强、效果最好的算法,并结合此算法对采集的12名实验者的原始图像数据进行标注、归一化,最终建立约42 000张图片以及对应标签的数据集。为提高视线估计方法的估计精度以及鲁棒性,建立了全脸视线估计模型。针对基准模型上下文感知能力不足导致的精度问题,改进了感受野模块。首先去除感受野模块多分支结构前的1×1卷积,然后将其“Basic Conv”分支改进为“identity”分支,最后建立了多尺度空洞卷积、特征融合的上下文感知模块;消融实验表明,此模块具有更强的信息提取能力,有利于提升模型的性能。针对全脸图像作为输入存在光照、头部姿势等影响导致的鲁棒性问题,提出了区域增强机制。该机制采用并行的最大池化和平均池化,在通道维度上获取图像的细节信息,并通过系数加权的方式去增强重要的局部区域特征;可视化实验表明,此机制具有良好的重要区域增强效果与抗噪声性能。最后结合上下文感知模块与区域增强机制,建立了基于Res Net50的全脸视线估计模型。进行了实验与分析。通过留一人交叉验证法验证提出模型的性能,相比在MPIIGaze数据集上测试的眼图视线估计模型Gaze Net,本文模型的视线估计误差降低18.62%;相比几种全脸视线估计方法中最好的模型Dense Net_ICBAM,在MPIIFace Gaze数据集与本地数据集上分别降低3.37%、4.48%。结果表明,此模型具有良好的视线估计精度与更强的鲁棒性。

上下文感知与区域增强型全脸视线估计方法

这是一篇关于视线估计,深度学习,全脸外观,上下文感知,区域增强机制的论文, 主要内容为视线估计技术在人机交互、辅助驾驶、头戴设备等领域有广泛的应用前景与实用价值。随着计算机视觉的发展,基于深度学习的全脸视线估计方法成为研究热点,其中如何提高此方法的估计精度与鲁棒性是业界的难题。本文基于Res Net50作为主干网络,结合改进的感受野模块与提出的区域增强机制,建立了全脸视线估计模型。此模型在MPIIFace Gaze数据集与本地数据集上分别达到4.59°与4.93°的估计精度,与基准模型相比,展现出更高的估计精度与更强的鲁棒性。总结本文的主要工作如下:为更好地评估模型的性能,建立了本地全脸视线估计数据集。通过对比实验,从几种经典的人脸特征点检测算法中选出鲁棒性最强、效果最好的算法,并结合此算法对采集的12名实验者的原始图像数据进行标注、归一化,最终建立约42 000张图片以及对应标签的数据集。为提高视线估计方法的估计精度以及鲁棒性,建立了全脸视线估计模型。针对基准模型上下文感知能力不足导致的精度问题,改进了感受野模块。首先去除感受野模块多分支结构前的1×1卷积,然后将其“Basic Conv”分支改进为“identity”分支,最后建立了多尺度空洞卷积、特征融合的上下文感知模块;消融实验表明,此模块具有更强的信息提取能力,有利于提升模型的性能。针对全脸图像作为输入存在光照、头部姿势等影响导致的鲁棒性问题,提出了区域增强机制。该机制采用并行的最大池化和平均池化,在通道维度上获取图像的细节信息,并通过系数加权的方式去增强重要的局部区域特征;可视化实验表明,此机制具有良好的重要区域增强效果与抗噪声性能。最后结合上下文感知模块与区域增强机制,建立了基于Res Net50的全脸视线估计模型。进行了实验与分析。通过留一人交叉验证法验证提出模型的性能,相比在MPIIGaze数据集上测试的眼图视线估计模型Gaze Net,本文模型的视线估计误差降低18.62%;相比几种全脸视线估计方法中最好的模型Dense Net_ICBAM,在MPIIFace Gaze数据集与本地数据集上分别降低3.37%、4.48%。结果表明,此模型具有良好的视线估计精度与更强的鲁棒性。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设驿站 ,原文地址:https://m.bishedaima.com/lunwen/54493.html

相关推荐

发表回复

登录后才能评论