基于改进YOLOv5s的视频行人目标检索平台设计与实现
这是一篇关于行人目标检索,行人检测,行人重识别,深度学习,轻量化模型的论文, 主要内容为视频数据被广泛应用于公共安全、交通管理、商业监管等各个领域。在这些领域中,视频中检索特定的行人显得尤为重要。然而,由于视频数据量大、复杂,如何高效、准确地检索其中的行人目标成为了一个热门研究方向。传统的手动检索方法效率低下且易出错,本文结合行人目标检索的特点和需要,提出了基于改进YOLOv5s的视频行人目标检索技术,并实现了视频行人目标检索平台。首先,为了减少视频中的冗余信息并提高效率,本文采用了一种基于聚类的关键帧提取算法。该算法首先将视频转换到HSV颜色空间,并计算每个帧的颜色直方图。然后使用聚类算法对所有帧进行聚类,以保留视频中的有效信息。实验证明基于聚类的关键帧提取算法在主要内容为行人的视频中具有较好的保真度和较高的压缩比。其次,本文对视频的关键帧进行行人检测,然后按照行人检测的结果将行人图像根据行人的预测框从关键帧中截取出来。为了解决行人检测任务中存在难以兼顾检测网络的复杂度和检测精度的问题,本文提出了基于YOLOv5s网络的轻量级行人检测网络YOLOv5s-G2网络。YOLOv5s-G2网络使用轻量级的Ghost C3和Ghost模块,它们可以在保持网络检测准确性的同时尽可能地降低网络复杂度。同时将全局注意力机制模块应用于YOLOv5s-G2网络,有效地提高了YOLOv5s-G2提取行人特征信息的能力。再使用α-CIo U损失函数来替代GIo U损失函数,有效的增强了网络生成的预测框的定位能力。YOLOv5s-G2网络在Wider Person数据集上进行了评估以确保其有效性,与现有的YOLOv5s网络相比,我们提出的YOLOv5s-G2网络不但检测精度有所提高而且网络的复杂度有所下降。以及与常见的轻量级行人检测网络相比,YOLOv5s-G2网络能更好的兼顾检测网络的复杂度和检测精度。然后,本文利用轻量化的Bo T网络计算待检索行人的图像和视频中提取的行人图像之间的相似度,并且将相似度高于阈值的视频中的行人图像中的行人认定为与待检索行人是同一人。在行人重识别网络的设计中,将Bo T网络中原本参数量大的主干网络Res Net-50替换为参数量小的轻量级主干网络OSNet。在Market-1501数据集上的实验表明,相比于其他主干网络,使用OSNet作为Bo T网络的主干网络能够在保持更少参数量的同时,获得更好的表现结果。最后,基于上述提出的算法,本文利用Qt作为GUI库设计并实现了视频行人目标检索平台。然后,通过对视频行人目标检索平台进行功能实验从而验证了平台可以稳定的实现行人目标检索的功能。
基于大余量余弦损失函数的口罩人脸识别算法研究
这是一篇关于人脸识别,口罩人脸图像,大余量余弦损失,注意力机制,轻量化模型的论文, 主要内容为身份识别在金融安全、安防等领域的重要性日益增加,而人脸识别由于其方便快捷、性价比高等优点在日程生活中得到了广泛的应用,也是近年来的研究热点之一。当今世界正在受到新冠肺炎疫情的冲击,人脸识别相较于指纹和身份证等身份识别方式,具有不需要接触特定传感器的特点,从而可以减少公共场所内的不必要接触,一定程度上减少了疫情传播的风险。由于新冠疫情的影响,佩戴口罩出行成为人们的生活准则,而口罩的遮挡使得采集到的人脸特征信息遭到破坏,造成识别性能严重下降从而导致无法进行身份判别。因此,佩戴口罩状态下的人脸识别算法研究在当下具有重大的现实意义。目前针对口罩遮挡下的人脸识别算法主要采用稀疏表示、局部特征提取和其他方法。稀疏表示主要使用训练样本对测试对象进行重新表示,而由于口罩的大面积遮挡使得身份信息丢失严重,导致很难将口罩人脸图像以常规人脸图像进行重构,因此识别效果不佳。基于局部特征提取的方法主要关注局部特征与人脸特征之间的关系,而这些方法多采用手工设计的特征对人脸特定区域特征进行提取,鲁棒性较差,在无约束环境中识别率较低。由于口罩人脸数据集的缺失,很多学者以添加随机噪声或黑色像素遮罩的方式模拟口罩遮挡,而这些方法在真实场景中很难进行有效地识别。针对以上口罩人脸识别算法中存在的问题,本文基于大余量余弦损失对口罩人脸识别算法进行研究,主要研究内容如下:(1)提出了基于大余量余弦损失函数的口罩人脸识别算法。由于深度学习需要大规模数据集对模型进行训练而目前缺少相关数据集,因此设计了一种基于人脸关键点检测的口罩人脸图像生成方法,将常规人脸图像进行预处理后检测其关键点的位置,根据人脸关键点的位置信息选取合适的口罩模板进行覆盖以生成口罩人脸图像。通过对生成口罩人脸数据集的特点进行分析,发现三元组损失函数并不适用于生成的口罩人脸数据集导致识别效果较差,所以采用了基于大余量余弦损失函数对模型进行训练。因为口罩的遮挡使人脸下半部分的特征遭到破坏,为了使模型更关注人脸上半部分未遮挡区域,通过加入卷积注意力机制使模型更关注于未被口罩遮挡区域的特征。实验结果证明,该算法具有较高的人脸识别性能,能够完成口罩遮挡状态下的人脸识别任务。(2)结合上述算法进行轻量化提出了轻量化口罩人脸识别模型。由于人脸识别模型通常被部署在计算性能较弱的嵌入式设备上进行应用,而基于深度神经网络的模型通常因为网络较深使得参数量和计算量较大导致延迟、卡顿等情况。为了解决上述问题,引入Ghost Net模块以减少模型的计算量,通过重新设计网络结构减少冗余的网络层,并设计了多尺度特征补偿模块以减少网络深度降低所带来性能上的下降,从而降低模型参数量和计算量,实现模型轻量化。(3)设计并实现了人脸识别平台。结合轻量化的口罩人脸识别模型搭建了人脸识别平台,主要包含口罩人脸图像生成、模型训练、实时人脸识别等功能,该平台可以通过摄像头识别口罩遮挡状态下的人脸图像。通过搭建端到端的人脸识别平台,满足了实际应用的需求。
基于改进YOLOv5s的视频行人目标检索平台设计与实现
这是一篇关于行人目标检索,行人检测,行人重识别,深度学习,轻量化模型的论文, 主要内容为视频数据被广泛应用于公共安全、交通管理、商业监管等各个领域。在这些领域中,视频中检索特定的行人显得尤为重要。然而,由于视频数据量大、复杂,如何高效、准确地检索其中的行人目标成为了一个热门研究方向。传统的手动检索方法效率低下且易出错,本文结合行人目标检索的特点和需要,提出了基于改进YOLOv5s的视频行人目标检索技术,并实现了视频行人目标检索平台。首先,为了减少视频中的冗余信息并提高效率,本文采用了一种基于聚类的关键帧提取算法。该算法首先将视频转换到HSV颜色空间,并计算每个帧的颜色直方图。然后使用聚类算法对所有帧进行聚类,以保留视频中的有效信息。实验证明基于聚类的关键帧提取算法在主要内容为行人的视频中具有较好的保真度和较高的压缩比。其次,本文对视频的关键帧进行行人检测,然后按照行人检测的结果将行人图像根据行人的预测框从关键帧中截取出来。为了解决行人检测任务中存在难以兼顾检测网络的复杂度和检测精度的问题,本文提出了基于YOLOv5s网络的轻量级行人检测网络YOLOv5s-G2网络。YOLOv5s-G2网络使用轻量级的Ghost C3和Ghost模块,它们可以在保持网络检测准确性的同时尽可能地降低网络复杂度。同时将全局注意力机制模块应用于YOLOv5s-G2网络,有效地提高了YOLOv5s-G2提取行人特征信息的能力。再使用α-CIo U损失函数来替代GIo U损失函数,有效的增强了网络生成的预测框的定位能力。YOLOv5s-G2网络在Wider Person数据集上进行了评估以确保其有效性,与现有的YOLOv5s网络相比,我们提出的YOLOv5s-G2网络不但检测精度有所提高而且网络的复杂度有所下降。以及与常见的轻量级行人检测网络相比,YOLOv5s-G2网络能更好的兼顾检测网络的复杂度和检测精度。然后,本文利用轻量化的Bo T网络计算待检索行人的图像和视频中提取的行人图像之间的相似度,并且将相似度高于阈值的视频中的行人图像中的行人认定为与待检索行人是同一人。在行人重识别网络的设计中,将Bo T网络中原本参数量大的主干网络Res Net-50替换为参数量小的轻量级主干网络OSNet。在Market-1501数据集上的实验表明,相比于其他主干网络,使用OSNet作为Bo T网络的主干网络能够在保持更少参数量的同时,获得更好的表现结果。最后,基于上述提出的算法,本文利用Qt作为GUI库设计并实现了视频行人目标检索平台。然后,通过对视频行人目标检索平台进行功能实验从而验证了平台可以稳定的实现行人目标检索的功能。
基于卷积神经网络和OpenMV的智慧农业大棚系统研究
这是一篇关于卷积神经网络,轻量化模型,病害识别,OpenMV,嵌入式系统的论文, 主要内容为现代农业大棚可以为各类农作物提供适宜的生长环境,从而极大地提升其质量和产量。然而,病虫害及环境参数等因素会对农作物的收成产生巨大影响,因此农业工作人员的农作物病虫害管理和提供适宜的生长环境工作尤为重要。目前,我国的温室大棚在作物病虫害管理方面存在不足,而在环境参数的管理方面也相对滞后,同时智能化信息化水平也严重不足。这些繁杂的工作很难依靠人工完成,无法满足农业产业现代化的需求。为了解决农业现场的病害识别及环境监管的痛点,本文研究实现了可应用于微型嵌入式终端的轻量化深度神经网络作物病害识别模型,并将模型部署于嵌入式移动终端OpenMV上,把该病害识别终端应用在适用于现代化大棚的智慧监管系统中,最终实现了智慧大棚病害及环境参数的动态管理。本文的主要的工作如下:(1)基于深度神经网络的轻量化农作物病害识别模型。选取MobileNetV2、Shuffle Net两种轻量化预训练神经网络模型,利用改动后的plant-village增强型数据集进行迁移学习,通过比对SGD、RMSProp、Adam三种优化器以及使用固定学习率或余弦衰减动态学习率的方法,验证了采用Adam优化器和余弦退火衰减学习策略可得出性能较好的MobileNetV2学习模型。(2)将MobileNetV2轻量化模型应用于OpenMV嵌入式图像处理模块。通过OpenMV终端的图像颜色阈值追踪功能构建基于颜色阈值的图像识别系统,借助舵机改变云台及摄像头位置,在捕捉到颜色阈值范围内的病害图像时进行病害识别,从而提高复杂背景下的识别精度、减少终端资源浪费。(3)基于STM32F4主控芯片完成了各类环境因子采集传感器的集成,同时设计了一套可改变农业大棚环境因子的硬件设备,利用广和通4G模块实现与One NET物联网云平台及小程序端的可视化交互。(4)开发基于One NET物联网云平台的可视化交互界面,同时开发了基于微信小程序的农业大棚多业务识别监管系统,实现农业大棚多业务、多场景和多方式的动态监管。
基于视觉的目标检测及其在机器人装配中的应用
这是一篇关于目标检测,机器人装配,特征递归,轻量化模型的论文, 主要内容为机器人自动装配是目前工业自动化领域研究的热点,是我国实现工业4.0时代和智能制造的关键技术,识别和定位是装配过程中最重要的一步,精准快速的识别定位可以指导机器人高效准确的对目标物体进行抓取装配,因此本文选择对机器人智能装配过程中的识别定位算法进行研究,在YOLO算法的基础上分别对其识别精度、模型大小、运算成本、检测速度等方面进行研究和改进。主要包括以下三个方面:第一,为了进一步提高YOLO算法的检测精度,提出将递归特征金字塔的思想加入YOLO算法中。首先使用空间空洞卷积池化金字塔对特征处理金字塔输出的特征层进行分通道提取特征,融合各分支的结果生成RFP(Recursive Feature Pyramid)递归特征层,将RFP特征层反馈回骨干网络中建立特征递归连接,对相邻两轮的特征金字塔输出特征通过注意力机制进行融合处理,结果用于下一轮递归的输入或者预测输出。通过对比实验证明,在加入了递归特征金字塔后,YOLOv3、YOLOv4算法的检测精度得到了显著提高。第二,对YOLO目标检测模型的轻量化进行了研究,提出使用Efficient Net代替Darknet53作为YOLOv3的骨干网络,使用大量的深度可分离卷积和逐点1×1卷积来减少参数量和计算量,加快模型推理速度,为进一步减少参数量,调整减少了网络中各特征层的尺寸。通过实验计算证明基于Efficient Net的YOLOv3在参数量和计算量方面远低于原始YOLOv3和YOLOv4模型,在检测精度MAP@0.5上也高于YOLOv4模型。第三,针对机器人智能装配系统中的工件数据集,它拥有目标种类少、物体形状规整、特征简单及不包含小物体的特点,对基于Efficient Net的YOLOv3模型再次进行轻量化,重新设计调整Efficient Net骨干网络的深层和宽度,去除预测层中负责预测小尺度物体的特征层,只对中等、大尺度的特征层进行输出预测,设计出Efficient Net_tiny_YOLOv3模型。通过实验证明它在略微降低检测精度的情况下,再次显著的降低了模型参数量、计算量,极大的提升了检测速度,提高了工件装配效率。
轻量级卷积神经网络的藻类图像分类方法研究
这是一篇关于藻类图像分类,卷积神经网络,视觉Transformer,注意力机制,轻量化模型的论文, 主要内容为藻类是一种生长在水体或潮间带中的简单生物,含有叶绿素等光合色素,可以通过光合作用产生能量。它们是水生生态系统中的基础生物,对于水质的改善及生态环境的保护都具有重要的作用。传统藻类分类方法对研究人员的知识储备要求高,且过程繁琐耗时;当前采用深度学习的藻类图像分类方法模型结构较为复杂,参数较多,对运行设备要求高。因此,对轻量级的藻类图像分类方法的研究具有重要的现实意义和应用价值。本文将卷积神经网络和视觉Transformer应用于藻类图像分类任务,研究的主要内容如下:(1)针对传统藻类图像分类模型参数量大,不适用于移动设备的问题,引入轻量级的卷积神经网络Mobile Net V2,并在其基础上进行改进,提出了轻量级的MCANet网络模型。首先,为减少模型参数量,MCANet采用深度可分离卷积进行特征提取。利用先进行深度卷积再进行点卷积的特征提取方法,在保证模型准确率的前提下,大幅度减少参数量。其次,为了避免Mobile Net V2中使用Re LU6激活函数存在的神经元死亡的问题,MCANet选择了曲线更为平滑且更高性能的高斯误差线性单元(GELU)作为激活函数,提升模型的准确率和泛化性能。最后,在模型中加入了坐标注意力机制(Coordinate Attention),建立通道注意力与位置信息之间的依赖关系,增强网络的特征学习能力。实验结果表明,MCANet在Gloria Bueno等制作的硅藻图像数据集上达到了97%的准确率,其参数量仅有2.80M。(2)为解决MCANet作为纯卷积神经网络难以捕获长距离依赖关系的问题,将MCA-block与视觉Transformer相结合,提出了轻量级的MCAViT网络模型。利用视觉Transformer对获取全局信息的强大建模能力弥补MCANet难以捕获长距离依赖关系,同时利用卷积神经网络能够提供空间归纳偏置的特点弥补视觉Transformer缺少空间归纳偏置的问题。参考Mobile Vit网络模型,并在其基础上进行改进。采用卷积核大小为3×3的深度可分离卷积进行初步特征提取。加入shortcut增强网络模型的表达能力。之后用MCA-block替换Mobile Vit中的MV2-block,以获得更高的精度。实验结果表明,MCAViT在藻类图像数据集上获得了98.6%的准确率,且模型参数量仅有1.67M。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕业设计工坊 ,原文地址:https://m.bishedaima.com/lunwen/47878.html