基于视频的行人恐慌事件智能侦测技术及实现
这是一篇关于行人检测,行人跟踪,行人轨迹,异常速度,YOLOv5,DeepSORT的论文, 主要内容为随着社会不断发展,人们对社交需求不断增加,类似商场、广场等公共场所的人流量也在不断增加,这对公共场所行人安全的要求变得越来越高。在公共场所发生突发事件时,由于相关管理人员没办法及时获取突发事件的预警消息,导致无法及时疏散人员,最终造成公共场所人员的生命损伤或者财产损失。针对这种需要长时间监控的情况,传统人工视频监控没办法高效地完成监控预警工作。如今监控视频技术不断更新和应用,使用智能化的视频来侦测公共场所安全问题成为了一种可能。在此背景下,本论文结合计算机视觉、近景测量学和统计学相关技术和知识,通过监控视频检测、跟踪行人获得行人真实的坐标和速度来侦测恐慌事件的发生,并且通知相关紧急事件的管理人员,及时疏散突发事件的周边人员。本论文的主要工作包括:(1)从实时检测速度和精度两方面综合考虑,在当前主流的行人检测算法中选择YOLOv5模型作为公共场所的行人检测模型,提取出行人双足中点的像素坐标,并以检测结果作为智能侦测算法的输入数据。(2)基于直线线性变换标定法,选择15组像素坐标系和世界坐标系的对应点,对监控的单目相机进行标定得到相机内参数和外参数,建立行人的像素坐标和真实坐标的转换关系。(3)使用Deep SORT行人跟踪模型跟踪监控区域中的行人,记录行人对应的真实世界坐标并计算该行人的运动速度。将正常情况下行人的运动速度作为一组经验数据,而后续时间内的行人运动速度作为一组实验数据。对这两组独立的经验数据和实验数据进行曼-惠特尼U检验,判断该区域是否有突发事件发生。(4)根据对恐慌预警实际应用的需求,设计了行人恐慌事件智能侦测系统。该系统使用Java语言基于Spring Boot框架快速开发,设计并实现了用户管理、恐慌预警、行人人数统计、行人轨迹可视化等功能。并对真实的监控视频进行分析,以验证本系统和对应算法的可行性。
基于机器学习的海洋浮标安全智能分析技术研究与实现
这是一篇关于海洋浮标,波浪传感器,故障诊断,目标检测,YOLOv5,监控管理系统的论文, 主要内容为海洋浮标是重要的海洋监测设备,海洋浮标搭载各类水文气象生物化学类传感器,可全天候实时观测海洋,采集海洋环境数据。面对复杂多变的海况、恶劣的海洋环境、电磁波干扰以及仪器设备老化等问题,浮标的安全性、稳定性和可靠性面临巨大的挑战,浮标设备时常遭到破坏和撞击,内部传感器故障时有发生。因此,对浮标平台周遭的潜在危险目标自动检测和追踪,实时诊断传感器状态,充分保障浮标平台的安全,使其能够长时间稳定地在线观测,保证浮标平台上各传感器观测数据的真实可靠,具有非常重要的意义。因此,本文重点从海洋浮标传感器故障诊断和外部危险目标检测两个方面研究开发海洋浮标安全智能分析系统。首先,针对浮标内部传感器故障导致的监测数据可靠性受损问题,本文设计了智能数据分析系统。采用基于机器学习的故障诊断方法,在诊断浮标内部传感器故障的智能数据分析系统中,分别采用统计学方法和人工智能神经网络模型对传感器观测的时间序列数据进行分析和训练,从长时序数据样本中自动检测异常数据,计算数据正确率,评估传感器故障率。并且,采用小波包分解与重构技术对传感器观测的时间序列数据进行信息分解与特征提取,建立改进的径向基神经网络模型和K-近邻分类模型对传感器数据特征进行训练,从中识别异常数据,对波浪传感器的6种故障类型判别,提高监测数据可靠性。其次,为了解决海洋浮标遭受外部危险目标破坏问题,本文在YOLOv5(You Only Look Once v5)的基础上建立了一种轻量化的智能目标识别模型。通过加入通道注意力机制、调整特征金字塔池化层、加入小目标检测层等对目标检测模型YOLOv5进行改进,实现从视频监控图像中自动识别和抓取人、船、大型海洋生物等浮标潜在危险物,提高了目标检测的准确度。之后,对轻量化智能目标识别模型进行硬件固化封装。最后,本文将传感器状态诊断结果和3种外部危险源的视频监测结果,以及电子海图数据、浮标位置数据、浮标周围船舶位置、浮标状态信息进行集成和融合,采用机器学习技术,将软硬件设计相结合,在基于B/S软件开发架构和树莓派硬件开发的基础上,设计了海洋浮标监控管理平台系统,建立一体化数据监控与展示平台,对浮标的内部传感器状态和外部危险目标进行实时监测和分析,对上述数据进行集中显示。
基于机器视觉的丙烯聚合过程液位检测系统设计
这是一篇关于液位检测,机器视觉,CBAM注意力机制,YOLOv5,立体匹配的论文, 主要内容为聚丙烯简称PP,是丙烯通过加聚反应而成的聚合物,聚丙烯是一种重要的热塑性材料,同时也是一种重要的化工产品和化工原料。在过去几十年里,全球对聚丙烯的消耗年均增速高达9.5%,使得聚丙烯成为消耗速度增长最快的热塑性材料之一。在丙烯聚合时,若出现液位异常,会造成丙烯聚合不成功,甚至发生安全事故。针对丙烯聚合过程液位检测需求,本课题采用机器视觉和深度学习的图像处理技术,研究设计了基于机器视觉的丙烯聚合过程液位检测系统,并对系统进行了性能测试,旨在使用智能化设备解决传统液位检测系统存在的不足。本课题研究设计的基于机器视觉的丙烯聚合过程液位检测系统,主要由主控制单元、液位图像采集单元、液位图像处理单元、通信单元和显示单元构成。系统基于Linux操作系统,采用RK3399芯片作为本次系统设计的核心处理器;液位图像采集单元选用双目相机采集丙烯聚合过程中的液位图像;液位图像处理单元采用Mali-T860MP4图形处理器;使用Python编程语言进行编程,搭载Py Torch深度学习框架以及Open CV软件库实现对丙烯聚合过程中液位参数的测量;液位参数的检测结果以及当前反应体的反应状态通过LCD单元实时显示,检测结果通过Wi Fi通信单元上传到云端,方便操作人员对丙烯聚合过程进行实时的监控。本课题在讨论国内外液位检测研究现状的基础上,针对传统液位检测系统在丙烯聚合过程液位检测中存在的不足,结合专业知识,采用机器视觉搭载深度学习的图像处理技术,设计智能系统实现对丙烯聚合过程中液位参数的测量。目标检测、立体匹配算法的研究是机器视觉、图像处理领域中的重要课题之一,本次课题通过研究融合成本效益分析方法(Cost Benefit Analysis Method,CBAM)注意力机制的YOLOv5目标检测算法以及对比不同的立体匹配算法,成功实现了对丙烯聚合过程中液位参数的测量。机器视觉技术在液位检测中的应用具有实时性强、检测效率高等优点,对液位检测技术的发展具有重要的意义。通过本次课题的研究,成功设计了一款基于机器视觉的丙烯聚合过程液位检测系统,并对系统测量的精确度、重复性以及稳定性进行了测试,丙烯聚合过程液位检测的测量精度为1 mm,测量绝对误差在2 mm以内,相对误差在±5%以内。结果表明本系统可以实现对丙烯聚合过程中液位参数的准确、快速测量。本系统具有检测精度高、检测实时性强、检测效率高等优点,提高了市场上液位检测系统的智能化程度,具有市场应用价值高,经济效益好等特点。
基于深度学习的遥感影像语义分割与目标检测研究
这是一篇关于深度学习,遥感影像,语义分割,目标检测,YOLOv5的论文, 主要内容为近年来,遥感科学技术发展迅猛,光学遥感影像的分辨率不断提高,利用其可以精确观测地球表面的各种目标以及各类地物,基于高分辨率遥感影像的地物分类、目标识别被广泛应用于智慧农业、灾害评估以及城市规划等领域。随着深度学习理论与方法的快速发展,利用深度学习方法对海量高分辨率遥感影像进行目标检测与语义分割也在实际场景应用中体现出重要的研究价值。本文主要的研究内容为利用深度学习方法对遥感影像进行目标检测与语义分割,提高其对遥感影像的解译精度。论文的主要工作如下:(1)提出NDVI-RSU-Net模型用于高分二号遥感影像语义分割。在U-Net模型的基础上,加入残差网络与注意力机制,构建了 RSU-Net模型,并进一步探讨了 RSU-Net模型的最佳输入波段组合,在输入特征通道中增加归一化植被指数(Normalized Difference Vegetation Index,NDVI),构建了 NDVI-RSU-Net模型。利用该模型提取了高分二号遥感影像的土地覆盖类型,并将该模型提取结果与经典的语义分割模型FCN模型、U-Net模型、LinkNet模型、VNet模型、ResU-Net模型及RSU-Net模型的提取结果进行对比,以验证该模型对土地覆盖类型提取的有效性。结果表明:RSU-Net模型取得了最佳的分类结果,其类别平均像素分割精度(Mean Pixel Accuracy,MPA)和平均交并比(Mean Intersection over Union,MIOU)分别为 87.24%和 67.69%,均高于 FCN(84.38%和 65.36%)、U-Net(85.34%和65.10%)、LinkNet(81.89%和 55.43%)、VNet(79.63%和57.69%)、ResU-Net模型(86.37%和66.09%)。可见光、近红外与归一化植被指数的波段组合为RSU-Net的最佳输入波段,基于该输入波段组合和RSU-Net模型提取土地覆盖类型的总体分割精度和平均交并比可达88.36%和71.18%,高于未添加NDVI的RSU-Net分割方法。(2)提出了一种改进YOLOv5的遥感影像目标检测模型。首先,针对卷积神经网络下采样导致的特征图中包含的小目标信息较少或消失的问题,引入特征复用以增加了特征图中的小目标特征信息;其次,在特征融合阶段时使用EMFFN(Efficient Multi-scale Feature Fusion Network)的特征融合网络代替原有的PANet(Path Aggregation Network),通过添加跳跃连接以及跨层连接以高效融合不同尺度的特征图信息;最后,为了应对复杂背景带来的检测效果变差的问题,提出了一种包含通道与像素的双向特征注意力机制(BFAM,Bidirectional Feature Attention Mechanism),以提高模型在复杂背景下的检测效果。改进后的YOLOv5模型在DIOR数据集与RSOD数据集中进行目标检测实验,检测精度(Mean average precision,mAP)分别为87.8%和96.6%,相较原始Yolov5模型分别提高了 5.2%和1.6%,并且均高于其他经典目标检测模型。实验结果表明本文提出的模型具有更好的检测效果。
基于深度学习的输电线路异物检测算法研究
这是一篇关于输电线路,深度学习,目标检测,CenterNet,YOLOv5的论文, 主要内容为输电线路作为电能传输的重要载体,其重要性不言而喻。若输电线路出现故障,会对电力系统造成不可逆转的损害。因此,电力系统的维护人员需要经常对输电线路上,诸如鸟巢、垃圾、风筝和气球等异物展开巡检,避免这些异物造成输电线路短路,从而引发突发停电。但是,人工巡检不仅消耗大量的人力和物力,而且还会发生一些漏检情况。为了降低电力巡检时人力和物力的消耗以及提高巡检的准确率,本论文基于无人机巡检并结合深度学习的主流算法对输电线路异物的检测展开研究,其主要的研究内容如下:(1)本文提出一种基于改进Center Net的输电线路异物检测算法。针对输电线路上小目标检测效果不佳的问题,提出了改进后的Center Net算法,具体改进为:为了能够提取到更丰富的语义特征,将Center Net算法的残差网络改进为宽体残差网络。并结合注意力机制,加强了对特征信息的提取。经过实验验证,改进后的Center Net算法能够有效的对输电线路异物进行检测,m AP相较于改进前提升了5.03%。(2)本文提出一种基于C-YOLOv5的输电线路异物检测算法。C-YOLOv5算法是在YOLOv5算法的基础上,将特征提取网络的C3模块进行改进,使之可以更好的提取图像中的特征信息。并且使用结合Swin Transformer设计的模块,对特征提取网络提取到的特征信息进行处理,还将Neck网络中的第一个C3模块替换成结合Swin Transformer设计的模块以此来达到提升算法检测精度的目的。通过实验表明,与YOLOv5算法相比,C-YOLOv5算法对输电线路异物的检测效果更加出色,m AP相较于改进前提升了1.3%。(3)由于C-YOLOv5算法频繁的下采样,使得小目标的语义信息发生丢失,影响算法的整体性能,本文提出一种基于C-YOLOv5-new的输电线路异物检测算法。CYOLOv5-new算法在C-YOLOv5算法频繁下采样之前,将浅层的特征图跳跃连接到多层后的Neck网络中,结合残差连接,并引入设计的Multicat模块,将大、中、小三种不同尺寸的特征图进行融合,能够保留更多小目标的语义信息,从而使得输电线路异物的小目标特征信息得以保留。通过实验表明,与C-YOLOv5算法相比,C-YOLOv5-new算法在输电线路异物检测上效果更佳,m AP相较于改进前提升了1.6%。最后,与其他主流算法对比,C-YOLOv5-new算法性能也更加出色。
多场景下基于YOLOv5和DeepSORT的多目标跟踪算法研究
这是一篇关于DeepSORT,YOLOv5,Res2Net,重识别,卡尔曼滤波的论文, 主要内容为基于深度学习的目标检测技术和多目标跟踪技术是机器视觉领域的主要研究分支,该领域研究成果在智能驾驶、视频监控、智慧交通领域有着非常广泛的应用场景。本文使用基于YOLOv5检测的DeepSORT多目标跟踪算法针对行人多目标跟踪和车辆多目标跟踪两个场景开展研究工作,具体围绕以下几个方面进行研究。针对行人多目标跟踪领域,本文主要研究了在尺度变化和行人遮挡频繁的复杂场景下,现有多目标跟踪方法Re-ID鲁棒性不高导致多目标跟踪精度较低的问题。提出一种在更细粒度层次上改进YOLOv5-DeepSORT中重识别模块的多目标跟踪方法。基于Res2Net搭建一种在单个残差块内部继续分层的网络作为Re-ID部分的特征提取网络,有效提高了网络提取多尺度特征的能力,且在提取到目标更深层特征的同时仍能保留大量细节信息;在骨干网络输出部分采用均分特征图的结构,加强局部特征对网络总体性能的影响。最终在公开数据集Market-1501和Duke MTMC-re ID上训练重识别模型。将改进后的行人跟踪系统在MOT16测试序列中进行跟踪效果评估。实验结果表明相较于默认算法,本文所提行人跟踪系统使用Market-1501训练后MOTA提升5.4%,MOTP提升2.2%;使用Duke MTMC-re ID训练后MOTA提升9.6%,MOTP提升2.7%。针对车辆多目标跟踪领域,本文主要研究了在光照、天气等恶劣环境影响下,目标检测效率低导致跟踪精度不佳的问题。基于YOLOv5提出一种改进C3模块的特征提取网络和融合高效注意力模块的特征融合网络,有效提高了车辆检测器在复杂环境和模糊背景下的鲁棒性。将改进后的车辆检测器在公开数据集Vehicle-Dataset与现实场景数据集中进行训练。实验结果表明相较于默认算法,本文所提车辆检测系统m AP_0.5和m AP_0.5:0.95分别提升5.3%和3.8%,Precision和Recall分别提升6.9%和3.2%。车辆跟踪器部分使用卡尔曼滤波匀速运动模型获取目标运动信息,使用轻量化网络Shuffle Net V2获取目标外观信息,有效减少了网络参数量和内存访问量,降低了算法对边缘设备的配置要求。同时设计了一种高效匹配策略增强车辆跟踪系统在遮挡场景下的鲁棒性,配合撞线计数法可以完成准确的车流量统计和车流运动方向判断。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕业设计驿站 ,原文地址:https://m.bishedaima.com/lunwen/46165.html