推荐5篇关于口罩佩戴检测的计算机专业论文

今天分享的是关于口罩佩戴检测的5篇计算机毕业论文范文, 如果你的论文涉及到口罩佩戴检测等主题,本文能够帮助到你 基于深度学习口罩佩戴检测算法的研究与系统实现 这是一篇关于口罩佩戴检测

今天分享的是关于口罩佩戴检测的5篇计算机毕业论文范文, 如果你的论文涉及到口罩佩戴检测等主题,本文能够帮助到你

基于深度学习口罩佩戴检测算法的研究与系统实现

这是一篇关于口罩佩戴检测,YOLOv5,注意力机制,程序移植,口罩佩戴检测系统的论文, 主要内容为疫情爆发后,为隔绝传染源,防止疫情传播扩散,多地区规定佩戴口罩、监测体温以及扫码显示才能进出公共场所。由于口罩佩戴检测受复杂环境下多人群小目标等多方面的影响,高效无接触智能化的佩戴检测具有重要意义。为解决上述问题,本课题开展基于深度学习算法并且搭建了一套口罩检测系统,完成口罩佩戴检测的无接触智能检测。本文的主要工作如下:(1)通过下载网络开源数据集和个人拍摄、爬虫口罩图片两部分共同组成本文数据集,数据集包括未佩戴口罩照片和佩戴口罩照片两种类别,分别从不同场景、不同光照、不同角度拍摄以及佩戴不同样式、颜色口罩的图片,共计10000张图片,并对其进行频域图像增强算法、Mosaic、Mix up图像融合算法等预处理的方式扩充数据量,再通过Label Img软件对数据集进行标注,并经过聚类算法获得12组先验预测框。(2)针对口罩佩戴识别过程中不同环境、不同光源角度等多干扰因素下的多人群小目标的检测难题,提出了复杂环境下口罩佩戴的检测算法。首先,将CSP模块改为CSP1-1,并引入注意力机制模块,使得模型降低残差组件减少运算的同时,还提高了口罩特征的关注度。其次,针对较远视野中口罩小目标的问题,在SPP模块中新增有效特征层和增加网络预测尺度,进一步提升不同感受野提取特征的能力。通过实验改进后的算法使未佩戴口罩和佩戴口罩的平均精准率可达96.6%,单张检测照片的FPS大小为47.8,相比于YOLOV5算法,使得m AP提高了0.6%、FPS提高了30,使口罩佩戴的检测精度和检测速度达到良好的效果,具有实时检测能力。(3)设计基于linux系统的便于移动、性能稳定的口罩检测系统。该系统主要分为硬件环境和软件环境两部分来进行搭建,为了扩展满足不同的需求,设计了基于Linux系统的GPIO驱动,通过pt-onnx-rknn模型的转换将程序移植至firefly_RK3399pro开发板,搭配HIKVISION-E14S高清2K摄像头以及其它外部设备完成了口罩佩戴系统的实现,使得整个口罩佩戴检测系统更具有便携和普遍适应的能力。(4)基于PyQt Desigener以及其他辅助包等工具完成了口罩佩戴检测系统应用软件的设计。通过界面层、逻辑层和数据层三大层面完成了软件系统的整体架构设计,将应用软件的Python文件移植到开发板并配合模型程序调用,实现了整套系统对图片、视频、实时检测检测口罩佩戴的功能。本文所研究的改进YOLOv5口罩佩戴检测算法的性能够在复杂的场景下完成的口罩佩戴的检测任务,同时移植至firefly_RK3399pro开发板,使得口罩检测效果满足检测要求的同时还能够降低硬件成本,减少不必要的浪费,具有很好的应用前景。

基于深度学习的口罩佩戴检测系统的设计与实现

这是一篇关于口罩佩戴检测,注意力机制,YOLOv5-Attention,Spring Boot的论文, 主要内容为自2019年12月以来,新冠肺炎疫情一直处于高发状态。佩戴口罩是切断病毒传播途径,抑制疫情反弹最简单有效的方法。因此在公共场所佩戴口罩成为防疫常态化下的要求。而个人由于防疫意识薄弱,往往不佩戴口罩,这给我国防疫工作带来极大的挑战。目前对公共场所的口罩佩戴检测主要通过人工检测的方式,这不仅会消耗大量的人力资源,还极易出现误检、漏检等情况。不能实时准确地监控公共场所内各个区域行人口罩佩戴的情况。为解决这一问题,本文通过应用目标检测技术开发了基于深度学习的口罩佩戴检测系统。该系统支持对实时视频中行人口罩佩戴情况检测,并提供统计分析功能。主要包括六个模块,分别为实时视频检测、关键点概况、离线视频检测、口罩佩戴情况统计、图片检测、系统配置管理。实时视频检测模块主要实现对摄像头采集视频的实时检测;关键点概况主要展示不同检测区域的口罩佩戴检测情况及潜在风险等级;口罩佩戴情况统计主要是对检测结果的统计分析;离线视频检测和图片检测主要实现对用户上传的视频和图片的检测;系统配置管理主要实现用户管理和设备管理功能。在算法方面,创建了人脸佩戴口罩数据集。修改并训练YOLOv5算法模型,并将其与注意力机制进行融合,实现了基于YOLOv5-Attention的口罩佩戴检测算法,提高了口罩佩戴检测的精确度。在系统技术架构方面,使用Spring Boot作为后端系统的开发框架,使用Mybatis作为数据持久化框架,使用My SQL作为数据库,使用Bootstrap框架实现前端页面的开发。在系统实现方面,按照软件开发生命周期,完成系统需求分析、概要设计和详细设计。最后在设计实现的基础上对系统进行测试并进行工作总结和展望。

基于ZYNQ的口罩佩戴检测硬件加速方法研究

这是一篇关于深度神经网络,模型压缩,迭代剪枝,口罩佩戴检测,硬件加速的论文, 主要内容为目标检测作为计算机视觉的核心任务之一,已广泛用于人脸检测、遥感图像检测、医学图像检测等众多应用中。但目标检测神经网络的高存储、高功耗、高计算复杂度的特点使得卷积神经网络在嵌入式端的实现面临巨大的挑战。当前,全球仍然面临着各种致病性病毒大范围传播的风险,在公共场合进行高效的人群口罩佩戴检测十分必要的,而依托先进的深度学习方法,则能够有效的提高检测效率。因此,本文将针对基于卷积神经网络的口罩佩戴检测算法推理的嵌入式加速方法进行深入研究。本文对各类面向嵌入式的主流网络轻量化方法进行了比较研究,选择通过模型剪枝实现网络冗余参数的裁剪从而实现模型轻量化;另一方面,基于ZYNQ So C的工作特性及FPGA灵活可编程的特点选择ZYNQ作为口罩检测硬件加速器的实现平台。首先,本设计提出了一种基于渐进式迭代剪枝的EAGP剪枝算法,采用指数函数形式的剪枝率变换函数对网络实现迭代剪枝,能更高效地实现网络裁剪,对Res Net网络剪枝的实验结果表明,相比AGP算法和One-Cycle算法,其网络精度分别提高1.04%和0.83%,同时,针对VGG16网络剪枝也具有较好的性能。其次,裁剪后的网络不仅去除了大量的冗余参数实现了网络稀疏化,同时网络模型增加了一定比例的零值权重参数,由此本文提出一种基于权重支路零值检测的脉动阵优化设计,通过有效降低卷积乘法器的乘法次数从而降低系统的功耗,以网络模型Res Net为例,剪枝后模型权重数量为2.1M,参数量减少了80%,其中权重零值为0.02M,采用权重零值检测器对零值参数实现乘法简化,其卷积乘法器的乘法次数降低了1.08%。最后,本文基于ZYNQ异构平台,设计并实现了基于Res Net网络模型轻量化的口罩检测推理加速器,在PS端实现数据传输控制、指令控制等,在PL端实现卷积神经网络的运算加速作为协同处理。实验结果表明,基于ZYNQ的卷积神经网络加速器在保持较高推理精度的条件下,整体功耗为1.54W,与CPU、GPU运算平台相比,分别实现了15.3倍和1.9倍的能量效率提升,剪枝后的网络在ZYNQ端实现加速推理的运行能耗相比剪枝前减少了60.82%。

基于深度学习的口罩佩戴检测系统的设计与实现

这是一篇关于口罩佩戴检测,注意力机制,YOLOv5-Attention,Spring Boot的论文, 主要内容为自2019年12月以来,新冠肺炎疫情一直处于高发状态。佩戴口罩是切断病毒传播途径,抑制疫情反弹最简单有效的方法。因此在公共场所佩戴口罩成为防疫常态化下的要求。而个人由于防疫意识薄弱,往往不佩戴口罩,这给我国防疫工作带来极大的挑战。目前对公共场所的口罩佩戴检测主要通过人工检测的方式,这不仅会消耗大量的人力资源,还极易出现误检、漏检等情况。不能实时准确地监控公共场所内各个区域行人口罩佩戴的情况。为解决这一问题,本文通过应用目标检测技术开发了基于深度学习的口罩佩戴检测系统。该系统支持对实时视频中行人口罩佩戴情况检测,并提供统计分析功能。主要包括六个模块,分别为实时视频检测、关键点概况、离线视频检测、口罩佩戴情况统计、图片检测、系统配置管理。实时视频检测模块主要实现对摄像头采集视频的实时检测;关键点概况主要展示不同检测区域的口罩佩戴检测情况及潜在风险等级;口罩佩戴情况统计主要是对检测结果的统计分析;离线视频检测和图片检测主要实现对用户上传的视频和图片的检测;系统配置管理主要实现用户管理和设备管理功能。在算法方面,创建了人脸佩戴口罩数据集。修改并训练YOLOv5算法模型,并将其与注意力机制进行融合,实现了基于YOLOv5-Attention的口罩佩戴检测算法,提高了口罩佩戴检测的精确度。在系统技术架构方面,使用Spring Boot作为后端系统的开发框架,使用Mybatis作为数据持久化框架,使用My SQL作为数据库,使用Bootstrap框架实现前端页面的开发。在系统实现方面,按照软件开发生命周期,完成系统需求分析、概要设计和详细设计。最后在设计实现的基础上对系统进行测试并进行工作总结和展望。

基于深度学习口罩佩戴检测算法的研究与系统实现

这是一篇关于口罩佩戴检测,YOLOv5,注意力机制,程序移植,口罩佩戴检测系统的论文, 主要内容为疫情爆发后,为隔绝传染源,防止疫情传播扩散,多地区规定佩戴口罩、监测体温以及扫码显示才能进出公共场所。由于口罩佩戴检测受复杂环境下多人群小目标等多方面的影响,高效无接触智能化的佩戴检测具有重要意义。为解决上述问题,本课题开展基于深度学习算法并且搭建了一套口罩检测系统,完成口罩佩戴检测的无接触智能检测。本文的主要工作如下:(1)通过下载网络开源数据集和个人拍摄、爬虫口罩图片两部分共同组成本文数据集,数据集包括未佩戴口罩照片和佩戴口罩照片两种类别,分别从不同场景、不同光照、不同角度拍摄以及佩戴不同样式、颜色口罩的图片,共计10000张图片,并对其进行频域图像增强算法、Mosaic、Mix up图像融合算法等预处理的方式扩充数据量,再通过Label Img软件对数据集进行标注,并经过聚类算法获得12组先验预测框。(2)针对口罩佩戴识别过程中不同环境、不同光源角度等多干扰因素下的多人群小目标的检测难题,提出了复杂环境下口罩佩戴的检测算法。首先,将CSP模块改为CSP1-1,并引入注意力机制模块,使得模型降低残差组件减少运算的同时,还提高了口罩特征的关注度。其次,针对较远视野中口罩小目标的问题,在SPP模块中新增有效特征层和增加网络预测尺度,进一步提升不同感受野提取特征的能力。通过实验改进后的算法使未佩戴口罩和佩戴口罩的平均精准率可达96.6%,单张检测照片的FPS大小为47.8,相比于YOLOV5算法,使得m AP提高了0.6%、FPS提高了30,使口罩佩戴的检测精度和检测速度达到良好的效果,具有实时检测能力。(3)设计基于linux系统的便于移动、性能稳定的口罩检测系统。该系统主要分为硬件环境和软件环境两部分来进行搭建,为了扩展满足不同的需求,设计了基于Linux系统的GPIO驱动,通过pt-onnx-rknn模型的转换将程序移植至firefly_RK3399pro开发板,搭配HIKVISION-E14S高清2K摄像头以及其它外部设备完成了口罩佩戴系统的实现,使得整个口罩佩戴检测系统更具有便携和普遍适应的能力。(4)基于PyQt Desigener以及其他辅助包等工具完成了口罩佩戴检测系统应用软件的设计。通过界面层、逻辑层和数据层三大层面完成了软件系统的整体架构设计,将应用软件的Python文件移植到开发板并配合模型程序调用,实现了整套系统对图片、视频、实时检测检测口罩佩戴的功能。本文所研究的改进YOLOv5口罩佩戴检测算法的性能够在复杂的场景下完成的口罩佩戴的检测任务,同时移植至firefly_RK3399pro开发板,使得口罩检测效果满足检测要求的同时还能够降低硬件成本,减少不必要的浪费,具有很好的应用前景。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设小屋 ,原文地址:https://m.bishedaima.com/lunwen/50359.html

相关推荐

发表回复

登录后才能评论