橙子表面缺陷检测与分级系统设计与实现
这是一篇关于橙子表面缺陷,YOLOv5s,语义分割,DeepLabV3+,缺陷检测分级系统的论文, 主要内容为橙子表面缺陷检测是指对橙子在采摘或者在运输过程中产生的霉变、划痕等缺陷进行检测的过程。橙子分级是指按照国家标准分为几个等级。橙子表面缺陷检测可以减少病虫害对消费者健康的影响,提高橙子的外观质量。本文针对自制的橙子数据集,使用目标检测与语义分割两种网络模型,设计了一个橙子表面缺陷检测与分级系统。主要工作为:(1)建立一个包含两千多张图像以及详细标注的橙子表面缺陷检测数据集,用于橙子表面缺陷检测网络训练与测试。该数据集使用RGB摄像头手动采集,在纯黑背景下,从多个角度对表面正常的橙子和常见的几种缺陷进行了拍摄,并且分别制作了目标检测网络训练时用到的标签文件和语义分割网络训练时用的标签文件。(2)基于YOLOv5s网络,结合注意力模块,提出一种改进网络模型。保持原模型不变,在特征提取部分加入两处CBAM注意力模块从而加强特征提取,并且将实验结果与YOLOX、YOLOv7以及Centernet进行对比。试验结果表明基于YOLOv5s改进的模型在检测精度上有了明显提高。(3)基于Deep Lab V3+网络,得到一种改进的橙子表面缺陷检测算法。更换了Deep Lab V3+的主干网络,提高网络对特征提取的速度。同时在网络浅层特征、多尺度卷积和解码器入口加入了融合残差块和注意力模块的RA模块,使用空洞卷积代替RA模块中普通卷积层。加入RA模块,目的是防止神经网络梯度信息消失,也加强神经网络特征提取能力,提高了网络分割精度。实验结果证明改进的网络在橙子缺陷数据集效果最好。与其他语义分割网络相比,m PA和m Io U也是最优。(4)基于Python语言和Qt Designer设计一个橙子表面缺陷检测与分级系统。该系统可以借助两个改进算法对设备中图片、本地视频或者调用摄像头,进行实时图像检测,并且在图片或者视频的左上角输出结果,目标检测算法判断橙子是否为缺陷果,语义分割网络根据面积输出分级结果。
基于轻量化YOLOv5的储粮害虫检测系统研究
这是一篇关于储粮害虫,目标检测,YOLOv5s,轻量化,Bi-FPN,模型部署的论文, 主要内容为随着世界人口的不断增长,粮食供应问题日益凸显。为了确保人类的粮食安全,储粮管理变得越来越重要。然而,在粮食储存过程中,害虫侵害一直是导致粮食损失的主要因素之一。因此,快速、准确地检测和识别储粮害虫是保障储粮安全的关键所在。随着计算机技术和人工智能的发展,基于深度学习的储粮害虫检测逐渐成为了研究热点。本文依据粮库实际场景通过目标检测方法对储粮害虫进行检测,针对储粮害虫小目标以及系统实时性要求等特点对YOLOv5s检测算法进行改进,并基于粮库现有的粮情智能化平台将改进后算法部署在Web端,开发储粮害虫检测系统。本文的主要工作如下:(1)建立储粮害虫数据集。目前没有粮库场景下储粮害虫检测相关的数据集,为提升储粮害虫检测的准确性,自制数据样本丰富的储粮害虫数据集。通过收集粮情智能测控柜采集的害虫图像,以及为了保证数据的多样性,实际模拟测控柜害虫收集环境,拍摄图像数据,完成数据集的制作。之后使用标注软件,标注图像中各类害虫的位置及其对应的类别标签,生成xml文件。其次通过数据增强,对标注后的数据集进行增强,扩充数据集。最后生成VOC格式的储粮害虫数据集,并按照8:1:1的比例划分数据集。(2)提出基于改进YOLOv5s的储粮害虫检测算法。针对储粮害虫目标较小以及粮库复杂环境下害虫图像存在杂质干扰等特点,以及轻量化算法以便移植到系统,对YOLOv5s算法进行改进。首先使用k-means算法重新进行聚类分析,获得新的锚框参数,使其更贴合本文自制数据集的尺寸;然后在Mobile Netv3中引入ECA模块,并将其作为主干网络代替CSPDarknet-53,在保持高精度的同时,降低网络参数、加快推理速度;其次将Neck部分的特征金字塔结构替换为Bi-FPN,提高多尺度特征融合的效率,进而提高网络检测的精度。实验结果表明,本文所改进的YOLOv5s储粮害虫检测算法,平均精度均值达到97.1%,FPS提高至91,模型计算量GFLOPs由16.4降低至1.9,改进后算法有效提升储粮害虫小目标的检测效果,同时满足系统实时性的检测要求。(3)储粮害虫检测系统的设计。基于粮库现有的粮情信息化平台建设和实际需求,设计基于PC端的储粮害虫目标检测系统,将训练好的算法模型部署到Web端。系统包括用户管理、图像获取、害虫检测、虫情数据、可视化展示和虫害预警等功能,方便工作人员能通过该系统及时掌握粮仓虫害情况。
基于YOLOv5s-STP的复杂背景下茶叶病害检测与应用
这是一篇关于茶叶病害,目标检测,YOLOv5s,Swin Transformer Block,SPA attention的论文, 主要内容为中国是茶叶生产和出口大国,茶叶病害的防治对茶叶的产量和质量有着重要意义。目前依靠茶农经验识别茶叶病害存在较多的误判,漏判情况。近些年来,随着深度学习的发展,目标检测技术推动着农作物病害检测的发展,但是针对茶叶病害检测,现有的研究基本建立在单一背景下的单一病害检测。因此,研究一种复杂背景下多叶片茶叶病害识别算法,对茶叶病害的防治具有重要意义。为了弥补自然环境中茶叶病害检测的空缺,本文以目标检测技术为基础,使用卷积神经网络方法,针对自然环境下的复杂背景、多叶片,小目标病害等问题,本文提出了一种YOLOv5s-STP茶叶病害检测方法。具体工作内容和试验结果如下:(1)构建了茶叶病害数据集。本文采集了3种茶树的5种病害图像,共2492张,并通过位置变换、色彩抖动、Auto Contrast、Cutout、Sharpness等数据增强方式将数据集扩充到7287张。接着对数据集进行归一化处理,然后使用Lable Img图像标注软件完成图像标注工作,最后按比例随机划分数据集。(2)提出了基于YOLOv5s-STP的茶叶病害检测算法。首先使用Faster R-CNN、SSD和YOLOv5s算法分别训练自建的茶叶病害数据集,结果表明YOLOv5s在三种算法中的表现最好,该算法的m AP达到了83.2%,FPS达到了59.6f/s,模型大小仅14.3M。其次针对YOLOv5s算法对部分病害检测效果差、数据集中的复杂背景干扰检测效果等问题,提出了将Swin Transformer Block(STB)融合到YOLOv5s网络中的C3模块以及融合带残差结构的SPA注意力机制这两种方法对YOLOv5s算法进行优化,构建了YOLOv5s-STP算法,以提升网络的特征提取能力,降低复杂背景等干扰因素的影响。优化后的算法在几乎不影响模型大小和检测速度的情况下精确率和召回率实现了同向增长,分别达到了91.2%和82.4%,比原YOLOv5s算法分别提升了6.6%和0.8%;F1的值提升了3.5%,达到了86.6%;m AP提升了3.5%,达到了86.7%;FPS达到了56.3f/s。结果证实了本文提出的YOLOv5s-STP算法在自建的茶叶病害数据集上可以较好地识别复杂背景下的多叶片茶叶病害。(3)设计并开发了一款茶叶病害检测系统。使用Flask框架对本文提出的算法进行部署,使用前后端分离的方式进行开发,实现茶叶病害检测系统的检测、历史记录管理,个人中心等功能,并对该系统进行测试,结果表明该检测平台具有可用性和实用性。
基于多传感器信息融合的农田障碍物检测研究
这是一篇关于目标检测,多传感器,信息融合,深度学习,去模糊,YOLOv5s的论文, 主要内容为发展无人农机能有效推进农业科技进步,使我国农业不断呈现新的样貌。无人农机能代替农民工作,提升农机作业效率和质量。但农机行进路线上不可避免地存在一些动态和静态障碍物,例如树木、草堆、房屋、电线杆、人、牛、羊和其他行驶的拖拉机等,如果不对这些障碍物进行检测识别,无人农机与障碍物发生碰撞,将造成严重的经济损失乃至人员伤亡。因此,无人农机应具备较强的环境感知能力。本文的目的是构建一种鲁棒的农田障碍物检测方法,能有效改善利用单视觉传感器检测农田障碍物时遇到遮挡问题、未知障碍物、传感器失效时无法检测的情况;并且能提升农机获取到的障碍物信息的精确性和全面性,为后续精准避障奠定基础。因此,本文提出了一种基于多传感器信息融合的农田障碍物检测方法。该方法结合了毫米波雷达在测距测速以及相机在类型识别和横向定位的优势,采用决策级别的融合方式将数据关联成功的毫米波雷达有效目标序列和相机有效目标序列进行加权输出,输出的信息包括更精确的目标方位、纵向速度、类别。对于未关联的序列,将作为新目标利用拓展卡尔曼滤波算法进行跟踪并基于有效生命周期进行目标的管理和输出。本文的主要内容与工作有:(1)基于毫米波雷达的障碍物检测研究。对毫米波雷达的结构和原理进行了介绍;进行了雷达选型和雷达数据解析;提出了一种方法对毫米波雷达产生的数据进行过滤以降低计算量,其中空目标根据距离是否为0过滤;虚假目标通过有效生命周期理论过滤;非威胁目标根据设定的拖拉机作业时安全的横向距离阈值和纵向距离阈值过滤。设计了毫米波雷达数据可视化界面。试验表明,提出的过滤算法可有效滤除82%的无效目标,为后续融合减少了大量不必要的计算。同时,从试验中可以得知毫米波雷达对于障碍物的类型识别能力较差,明确了引入相机进行障碍物识别的必要性。(2)基于相机的障碍物检测研究。首先分别介绍了Faster R-CNN和YOLOv5s深度学习检测算法,并利用两种算法进行检测,根据实际检测结果进行检测算法的选择和改进。针对原始YOLOv5s以GIo U计算损失时存在的问题,提出了一种改进的YOLOv5s检测方法,该种方法采用CIo U进行损失计算并且将初始锚框尺寸替换成基于K-means算法聚类得到的锚框尺寸。利用改进YOLOv5s、原始YOLOv5s、和Faster R-CNN进行农田障碍物检测,比较三者的检测效果。试验表明,改进的YOLOv5s的检测效果较好,单张图片推理时间0.074 s,仅为Faster R-CNN的四分之一,具备了实时性;m AP值为65.12%,仅比Faster R-CNN的m AP值低了1.64%;改进YOLOv5s的m AP值相比于原始YOLOv5s提升了5.80%,检测时间相差不大;对小目标的检测效果提升很多。针对深度学习检测算法在推理阶段遇到模糊图像输入时导致漏检和误检现象,提出了一种基于改进YOLOv5s和SSRN-Deblur Net的两阶段检测方法。试验表明,改进YOLOv5s和SSRN-Deblur Net的两阶段检测方法有效降低了模糊图像输入造成的漏检和误检现象,该方法的m AP值较改进YOLOv5s提升了9.39%,单张图片推理时间增加至0.172 s,满足拖拉机的需求。(3)毫米波雷达与摄像头信息融合策略。进行了毫米波雷达与相机的时空基准对齐。采用了一种像素值拟合评估纵向距离的方法来进行像素坐标系向世界坐标系的转换。采用了一种基于全局最近邻法的数据关联方式,以匹配毫米波雷达与相机观测值。提出了一种加权输出的方式输出融合后的目标序列。利用拓展卡尔曼滤波(EKF)进行目标跟踪以维护有效目标库。(4)毫米波雷达与摄像头信息融合试验。为验证基于多传感器信息融合的农田障碍物检测方法的有效性,在完成硬件和软件的构建后,基于实车进行障碍物检测。试验表明,所提出的方法的可靠性与准确性都比单传感器要高。采用多传感器融合可以正确检测出66.18%的障碍物,高于单个相机的正确检出比例52.47%(相机存在大约10%的误检率)。由于毫米波雷达的使用,漏检率较仅用相机检测的漏检率降低了13.71%。
基于深度学习的工地异常行为检测系统设计与实现
这是一篇关于工地异常行为检测,YOLOv5s,网络模型轻量化,HRNet的论文, 主要内容为随着中国经济的迅速发展,建筑工业化进程正在加速推进,但每年因施工人员操作不规范而导致的安全事故仍频繁发生。传统的异常行为管控措施主要依赖人工方式,但由于其力度不足、效果不佳,监控相机所拍摄的大量图像未能得到有效处理,因此需要引入更加智能化且自动化的解决方案,提高安全管控的效率。近年来,智能信息技术的快速发展为异常行为的自动检测提供了有效支持。尤其是以深度学习为代表的计算机视觉技术能够实现海量图像数据的高效精确处理,被广泛应用于施工工地场景。然而,目前相关研究主要侧重于生产效率分析,较少探讨异常行为检测研究,且多局限于单个异常行为检测。同时,异常行为检测对情景特征、动作实时性等要素识别要求较高,也为其检测准确性带来了挑战。鉴于此,本文提出一种基于计算机视觉技术的工地异常行为检测方法,综合考虑了系统性、实时性和精确性等多方面,以提高检测效果。基于国内外研究现状,本文将施工现场的异常行为分为静态行为和动态行为两种类型。其中静态行为检测是针对施工人员的穿戴行为和工地烟火场景的检测,动态行为检测则是针对施工人员摔倒和翻越栏杆行为的检测。本文采用监控视频的方式对上述两类异常行为进行检测,主要工作内容如下:(1)采用目标检测算法实现静态行为检测。针对已有开源数据集不适用于实际现场环境的问题,本文与碧桂园相关工程建设单元合作,利用工地监控录像获取图像数据,并通过调整亮度、镜像翻转及左右旋转等数据增强方式将原始数据扩增5倍,并进一步提出了一种基于YOLOv5s改进的轻量目标检测模型YOLOv5sMobile Net V3。经过实验数据验证,YOLOv5s-Mobile Net V3模型在保持精度基本不变的前提下,具备更快的推理速度。改进后的模型大小仅为7.4MB,参数量比原模型减少了50%,FPS提升了3.6倍。YOLOv5s-Mobile Net V3模型的检测性能优异,在静态行为检测方面具有较好的表现,能够满足实际工地应用需求。(2)采用HRNet和BiLSTM实现动态行为检测。首先自建了工地行为数据集,利用HRNet模型提取骨骼关键点位置将其转换成CSV格式数据集。为减轻模型的计算复杂度,本文通过基于关键帧的方法从所有骨骼点数据中提取有效的动作数据样本,并进行数据预处理操作,如删除冗余关节点、补充缺失关节点等。经特征提取后,采用SVM、Random Forest、XGBoost、LSTM及Bi LSTM构建了动态行为检测模型。通过实验对比发现,Bi LSTM网络模型在自建数据集中表现出较高的精度,能实现动态行为的实时检测。(3)工地异常行为检测系统设计与实现。基于上述研究内容,本文设计并开发了工地异常行为检测系统,对系统进行详细的需求分析后把系统分为多路视频处理模块、静态行为检测模块、动态行为检测模块和离线训练模块,并对四个模块进行详细介绍。最后,完成该系统的实现并对功能和界面进行展示。
绳索并联式棉花打顶机作业目标识别与定位技术研究
这是一篇关于棉花打顶机,仿真分析,目标检测,YOLOv5s,立体匹配的论文, 主要内容为在棉花田间管理中,打顶工作是极为重要的环节之一,目前主要采取三种方式用于进行打顶工作,分别是人工打顶、机械打顶和化学打顶。人工打顶技术成熟但是对劳动力需求较大,在打顶的时候容易出现劳动力短缺问题;机械打顶速度快但是容易产生过切、漏切等问题;化学打顶工艺复杂且对环境要求高,使用不当容易对环境造成污染。随着深度学习及棉花产业的发展,越来越多的学者开始关注智能化、精确化打顶的相关研究来解决上述问题。基于此,此文旨在以棉株顶尖作为识别和定位的研究目标,提出一种搭载在高地隙拖拉机等移动平台上,使用绳索并联结构的棉花打顶机设计方案,并去除其他不重要部件,对其关键部分进行仿真分析,以此来验证所设计模型的准确性。然后基于此对棉花打顶机作业目标即棉株顶尖进行识别与定位技术研究,以实现对棉株顶尖的准确识别与定位。具体研究内容包括以下三个方面:(1)绳索并联式棉花打顶机的建模与仿真分析。通过Solid Works三维建模软件对绳索并联式棉花打顶机进行结构建模,然后建立打顶机的数学模型并进行逆运动学分析,接着使用Matlab中的Simulink工具对该结构的绳索长度、速度、加速度参数进行仿真实验,进而验证了逆运动学求解数学模型的准确性。同时分析了该打顶机的工作空间大小,验证了所设计打顶机工作空间满足打顶作业的工作需求,为下文识别与定位系统的实现提供了理论基础。(2)基于深度学习的棉株顶尖识别研究。基于棉花打顶机的使用环境,此文首先分析了YOLO系列各模型的特点并对比后选用YOLOv5s模型进行研究。然后阐述了YOLOv5s模型结构的特点并对其进行训练。结果表明YOLOv5s可以准确学习到棉株顶尖的特征,但是模型体积、参数量等对于嵌入式设备还是不太友好,所以进一步对YOLOv5s模型进行基于Mobile Netv3的轻量化改进策略,并在改进模型特征提取网络的颈部加入CBAM注意力机制。实验表明,此文提出的改进策略可以使模型体积下降并保持较高的识别精度,为后续的空间定位技术做好了基础准备。(3)基于双目相机的定位技术。在完成了识别工作后,为了指导打顶机的末端执行器可以靠近棉株顶尖的目标位置,还需要对棉株顶尖进行测距并定位。此文利用张氏标定法对双目相机的内外参数进行标定,采用SGBM算法立体匹配实现了对棉株顶尖的测距,然后将改进后的识别模型与定位模型集成为识别定位系统对棉株顶尖进行识别与定位实验,通过实验进行了十组定位实验,平均识别率为87%,双目定位的平均相对误差15.2%左右,表明误差在合理范围内,验证了该系统可以指导绳索并联式棉花打顶机完成对棉花打顶作业目标的识别与定位工作。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设项目助手 ,原文地址:https://m.bishedaima.com/lunwen/46238.html