基于深度学习的人员在岗状态智能化监控系统研究
这是一篇关于深度学习,目标检测,ILF-YOLOv3,多目标跟踪,卡尔曼滤波的论文, 主要内容为随着科学技术的不断发展,监控行业逐渐由原来的模拟时代转向数字时代,监控视频的清晰度得到了很大的提升,安装维护也变得更为便利。很多政府机构、传统工厂为了实现公共安防、实时监管等目的,大规模引进视频监控设备。但大多数的监控视频信息任需要人工查看分析,不仅造成大量人力资源的浪费,而且由于存在人为主观判断的影响,导致监控视频信息分析结果缺乏客观性。近年来,随着计算机视觉与机器学习的发展,监控行业逐渐由数字化时代转向人工智能时代。针对上述传统监控视频存在的问题,本文设计了一套搭载基于深度学习的目标检测和多目标跟踪算法的人员在岗检测的智能化检测系统,实现了对政府机构、企业单位中在岗人员的工作状态及来访人员计数的智能化监管。主要研究内容有:(1)在目标检测方面,研究分析了基于one-stage、two-stage两大模型目标检测算法的工作原理及检测性能,并根据智能化监控系统中对目标检测精准度、实时性的要求,提出了针对在岗人员状态检测的ILF-YOLOv3(Improve Loss and Feature-YOLOv3)算法。该算法是在基于one-stage模型的YOLOv3检测算法的基础上,对其损失函数和多尺度特征检测模块进行了改进。实验结果表明,新算法模型对在岗人员状态的检测数据集上的均值平均精度提高了7.9%,召回率提高了14%。(2)在多目标跟踪方面,本文研究分析了基于卡尔曼滤波器的多目标跟踪算法,改进了算法运动状态的匹配度量,使用融合3种度量模型的融合度量作为运动轨迹与目标检测之间的匹配度量。实验结果表明,融合度量模型的增加,不但缓解了单独使用马氏距离为匹配度度量时所导致的IDSwitch情形严重的状况,而且有效避免了因相机运动导致马氏距离度量失效的情况。(3)在系统的实现方面,分别对人员在岗智能化监控系统的前端界面、功能模块以及数据管理部分行分析与设计,最终采用Easy UI+SSM+Mysql的技术服务来实现基于B/S架构的智能化监控系统的开发。
监控场景下的特定行人跟踪与角度识别方法研究
这是一篇关于多目标跟踪,行人属性识别,一体化网络,特定行人跟踪与识别的论文, 主要内容为多目标跟踪技术与行人属性识别技术是计算机视觉领域中的两个重要分支,已经成功应用于智能安防、商业分析等领域。然而,多目标跟踪技术与行人属性识别技术往往是独立进行的,由于两者没有共享网络权重,因此存在参数量大、推理速度慢的问题。本文针对此问题,将多目标跟踪网络与行人属性识别网络进行集成,提出了多目标跟踪与角度识别一体化网络。在此基础上,本文将注意力机制引入多目标跟踪与角度识别一体化网络,提高了一体化网络角度识别的精度;改进了新轨迹的初始化方法,将多目标跟踪与角度识别一体化方法改进为了特定行人跟踪与角度识别方法。最后,为方便用户使用,本文实现了基于特定行人跟踪与角度识别方法的原型系统。具体工作如下:1.提出多目标跟踪与角度识别一体化方法。由于将多目标跟踪网络与行人属性识别网络进行级联的方法存在推理时间过长的问题,本论文将多目标跟踪网络与行人属性识别网络进行集成,提出了多目标跟踪与角度识别一体化网络,并通过实验证明该方案是一个可行的方案。2.对多目标跟踪与角度识别一体化方法进行改进。本论文将CBAM注意力机制引入一体化网络,在牺牲较少时间的情况下提高了一体化网络角度识别的精度。此外,本论文改进了新轨迹的初始化方法,将多目标跟踪与角度识别一体化方法改进为了可以针对特定行人进行跟踪与角度识别的方法。3.对基于特定行人跟踪与角度识别的Web系统进行设计与实现。本论文对基于特定行人跟踪与角度识别的Web系统进行了系统概要设计、数据库设计、系统详细设计,并结合开发工具对Web系统进行了功能实现与系统测试。系统测试结果表明,该Web系统各模块之间的功能以及模块之间的对接正常,满足系统设计的预期要求。
面向少量标注信息的车辆跟踪算法研究与系统实现
这是一篇关于深度学习,多目标跟踪,注意力机制,车辆属性检测的论文, 主要内容为目标跟踪主要在目标检测的基础上对目标图像和背景图像进行分割后,根据相邻图像帧中的目标位置与图像像素、特征等信息进行目标定位与识别,从而对视频中的目标序号进行判断,分析目标的运动轨迹。目标跟踪算法主要包括目标特征、跟踪模型和目标搜索策略,其中跟踪模型是决定跟踪算法效果的核心。然而,现阶段目标跟踪任务大多面向数据集标注信息丰富的行人,而对标注信息少量的车辆这类刚性物体的研究相对薄弱。本文选题为面向少量标注信息的车辆跟踪算法研究与系统实现,该研究以车辆目标跟踪为核心,对于现有道路交通监控车辆信息分析平台在视频场景下车辆目标跟踪精度不足以及跟踪与属性标注信息缺乏关联导致错检的问题提出两点改进思路:利用注意力机制关注车辆特有细节,在标注信息不足的情况下提高车辆目标跟踪的精度;以及将车辆目标轨迹与属性标注信息绑定校验实现信息关联,提高平台车辆属性检测准确性。本文选题于北邮—电信视觉智能联合实验室项目。本文的主要研究内容和创新成果如下:1.本文针对道路交通监控视频中的车辆目标缺乏丰富标准信息且受光照与尺度变化对外观影响较大的问题,提出了面向少量标注信息的车辆跟踪算法,设计了基于可变检测注意力机制(DEtection TRansformer,DETR)算法的单步跟踪算法网络,目标检测阶段利用注意力机制可以更多关注车辆特有细节(如外框、车灯边缘等),弥补标签不足带来的特征匹配方面的缺陷,同时降低了光照、尺度以及复杂运动问题对车辆外观影响的检测难度。对每一个目标车辆,关注更有意义的空间位置、包含局部信息的位置。网络中跟踪器的设计保留前后帧信息,避免遮挡跟丢的同时支持高帧率跟踪,充分发挥单步跟踪算法处理速度快的优势,提高跟踪精度的同时不影响速度,最终实现了 59.9%的多目标跟踪准确率(Multiple Object Tracking Accuracy,MOTA)和 73.2%的跟踪精度(ID Fl-score,IDF1)。2.对于目前业内道路交通监控车辆信息分析平台中车辆跟踪功能薄弱甚至缺乏、过度依赖目标检测结果容易导致错检的问题,本文分析了该类问题的存在原因,即工程实现中的车辆目标跟踪任务受车辆标注信息过少的影响且平台一次性输出车辆结构化信息缺乏校验。因此本文设计和实现了面向少量标注信息的车辆跟踪系统,根据基于可变DETR算法的单步跟踪网络的跟踪结果与车辆标注信息关联匹配,将目标身份(identification,ID)与轨迹上频次最高的车牌检测结果即置信度最高的车牌进行信息联合匹配作为校验,实现信息的关联与复用,充分提高了视频中车辆结构化信息输出的可靠性,减少ID与车牌的错检的同时不额外添加对标注信息的更高需求。该系统对于多尺度车辆目标检测达到了 74.94%的平均精度值(Average Precision,AP),实现了 94.55%的系统输出精度,充分发挥了交通监控视频一致性和完整性的优势,有效减少了后台错检数据的大量冗余,直观高效且智能地将基于车辆跟踪和属性检测的各类交通场景中的车辆结构化信息进行统一管理。该系统最终在已有的“智慧交通分析平台”上弥补了缺乏高性能的车辆目标跟踪功能的不足,突破了图片搜车的限制,支持以视频搜车,同时一体化地支持基于跟踪的车辆属性标注信息识别、车辆行为分析、车辆数据统计和车辆综合信息查询四大功能。
面向吊装作业的人员多目标跟踪方法研究
这是一篇关于吊装作业,多目标跟踪,卷积神经网络,注意力机制,智慧安全的论文, 主要内容为随着国家的发展,吊装作业在大型项目施工过程中已占有不可或缺的重要位置。但因非作业人员的意外闯入以及施工现场因缺少指挥人员而造成的事故数和人员伤亡数也随之攀升,因此对于吊装作业场景下的人员安全跟踪检测尤为重要。目前吊装作业场景下的视频监控主要仍采用人工方法,存在低效、无法及时报警等问题。近年来,由于深度学习在处理图像和视频具有的强大特征提取能力,使其为解决上述问题提供了高效可持续的检测方法,正被广泛地应用于智慧安全领域。然而,考虑到监控场景的复杂性、视频流质量以及遮挡等因素对跟踪检测的干扰,需要算法有更优良和稳定的性能表现。本文在分析现有的多目标跟踪检测理论上,针对吊装作业场景设计了多目标的人员跟踪方法。主要工作如下:1、针对吊装作业场景下的非作业人员意外闯入问题,提出深度学习与滤波方法结合的目标跟踪检测算法。首先采集西南油气田各吊装作业监控视频制作数据集,并提出基于YOLO v5结合Deepsort的检测算法。然后针对视频清晰度较低情况下的多目标跟踪,构建基于暗通道先验算法的图像过滤模型以提升清晰度。最后针对移动监测设备显存资源不足的情况,设计多视频流图像并行检测算法实现多路视频实时检测。实验结果表明,相比低清晰度的同类跟踪检测方法平均精度提升了0.77%。通过对比多线程识别与图像并联检测方法识别的精确度,证明在检测性能损失不大的前提下,该方法能有效节省显存资源。2、针对作业人员中指挥人员与普通作业人员的多目标跟踪检测,本文设计基于Open pose的人体躯干识别算法以及对识别后的着装使用残差网络进行分类,再采用Deepsort算法进行跟踪。对于自建数据集指挥人员样本数量不平衡问题进行数据增强处理。对于识别到的躯干区域冗余信息的干扰导致分类效果较差的问题,引入空间注意力机制对残差网络进行改进。通过使用原生残差网络的跟踪方法与改进后的跟踪方法进行对比实验,本方法平均精度提高了1.07%。同时与原生YOLO v5以及其他主流模型进行对比,证明了改进方法的实时性和有效性。3、基于以上改进算法设计并搭建了吊装作业安全检测智能平台系统。系统采用Spring Boot+Spring MVC+Mybatis框架,分别在实验室环境下与实际生产场景下对平台的稳定性以及实用性验证。实验结果表明,该平台在真实生产场景下对异常情况可以有效检测,并对相关安全责任人实时发出预警以提升安全效率。对发生的异常情况进行记录并定期产生报表,方便相关负责人针对性指定安全施工计划,有效的实现了智慧安全检测。
面向少量标注信息的车辆跟踪算法研究与系统实现
这是一篇关于深度学习,多目标跟踪,注意力机制,车辆属性检测的论文, 主要内容为目标跟踪主要在目标检测的基础上对目标图像和背景图像进行分割后,根据相邻图像帧中的目标位置与图像像素、特征等信息进行目标定位与识别,从而对视频中的目标序号进行判断,分析目标的运动轨迹。目标跟踪算法主要包括目标特征、跟踪模型和目标搜索策略,其中跟踪模型是决定跟踪算法效果的核心。然而,现阶段目标跟踪任务大多面向数据集标注信息丰富的行人,而对标注信息少量的车辆这类刚性物体的研究相对薄弱。本文选题为面向少量标注信息的车辆跟踪算法研究与系统实现,该研究以车辆目标跟踪为核心,对于现有道路交通监控车辆信息分析平台在视频场景下车辆目标跟踪精度不足以及跟踪与属性标注信息缺乏关联导致错检的问题提出两点改进思路:利用注意力机制关注车辆特有细节,在标注信息不足的情况下提高车辆目标跟踪的精度;以及将车辆目标轨迹与属性标注信息绑定校验实现信息关联,提高平台车辆属性检测准确性。本文选题于北邮—电信视觉智能联合实验室项目。本文的主要研究内容和创新成果如下:1.本文针对道路交通监控视频中的车辆目标缺乏丰富标准信息且受光照与尺度变化对外观影响较大的问题,提出了面向少量标注信息的车辆跟踪算法,设计了基于可变检测注意力机制(DEtection TRansformer,DETR)算法的单步跟踪算法网络,目标检测阶段利用注意力机制可以更多关注车辆特有细节(如外框、车灯边缘等),弥补标签不足带来的特征匹配方面的缺陷,同时降低了光照、尺度以及复杂运动问题对车辆外观影响的检测难度。对每一个目标车辆,关注更有意义的空间位置、包含局部信息的位置。网络中跟踪器的设计保留前后帧信息,避免遮挡跟丢的同时支持高帧率跟踪,充分发挥单步跟踪算法处理速度快的优势,提高跟踪精度的同时不影响速度,最终实现了 59.9%的多目标跟踪准确率(Multiple Object Tracking Accuracy,MOTA)和 73.2%的跟踪精度(ID Fl-score,IDF1)。2.对于目前业内道路交通监控车辆信息分析平台中车辆跟踪功能薄弱甚至缺乏、过度依赖目标检测结果容易导致错检的问题,本文分析了该类问题的存在原因,即工程实现中的车辆目标跟踪任务受车辆标注信息过少的影响且平台一次性输出车辆结构化信息缺乏校验。因此本文设计和实现了面向少量标注信息的车辆跟踪系统,根据基于可变DETR算法的单步跟踪网络的跟踪结果与车辆标注信息关联匹配,将目标身份(identification,ID)与轨迹上频次最高的车牌检测结果即置信度最高的车牌进行信息联合匹配作为校验,实现信息的关联与复用,充分提高了视频中车辆结构化信息输出的可靠性,减少ID与车牌的错检的同时不额外添加对标注信息的更高需求。该系统对于多尺度车辆目标检测达到了 74.94%的平均精度值(Average Precision,AP),实现了 94.55%的系统输出精度,充分发挥了交通监控视频一致性和完整性的优势,有效减少了后台错检数据的大量冗余,直观高效且智能地将基于车辆跟踪和属性检测的各类交通场景中的车辆结构化信息进行统一管理。该系统最终在已有的“智慧交通分析平台”上弥补了缺乏高性能的车辆目标跟踪功能的不足,突破了图片搜车的限制,支持以视频搜车,同时一体化地支持基于跟踪的车辆属性标注信息识别、车辆行为分析、车辆数据统计和车辆综合信息查询四大功能。
基于时序预测和多模态融合的自动驾驶3D多目标跟踪算法研究
这是一篇关于自动驾驶感知,多目标跟踪,时序预测,多模态融合,深度神经网络的论文, 主要内容为为了保证自动驾驶车辆对环境的准确感知以及冗余设计,其传感器套件通常都综合了多源异构传感器。一方面,系统因此能获得场景中更丰富的纹理、结构等信息,另一方面,这对传感器软硬件提出了更高的要求。针对该问题,本文探索了融合时序信息、多模态信息对3D多目标跟踪性能的影响,本文主要的工作如下:(1)考虑到激光雷达点云在不同方向的空间分布不一致性,研究了一种正态分布拟合栅格化点云的配准方法,使得多激光雷达的外参求解更能稳定收敛。为了达到多模态数据融合,基于棋盘格角点检测和点云聚类与平面拟合算法,实现了一种自动化的激光雷达与相机外参标定方法。(2)针对传统3D多目标跟踪算法无法充分利用历史状态信息的问题,提出了一种基于时间序列预测的3D多目标跟踪算法,通过内部记忆与外部记忆两个模块实现对目标运动状态建模,并由门控循环单元进行状态更新。将模型输出的预测状态与检测结果构建3D Io U代价矩阵,并由KM算法完成数据关联。对算法各模块在大规模数据集上进行了细致的消融实验,并进行了定量与定性分析。(3)研究了一种融合激光雷达和视觉的数据关联算法,以解决复杂交通场景下因遮挡而导致目标跟踪丢失的问题。首先,为了解决传感器间因视场角差异而无法共视的问题,提出了一种基于中心距离与前景遮挡率的过滤方法。然后将目标重识别任务引入多目标跟踪中的数据关联,基于视觉注意力机制神经网络SwinTransformer和改进的Point Net++,分别从目标图像和点云提取高维特征并拼接。最终,采用高斯核-级联匹配对所有轨迹和检测目标构建关联。(4)搭建了感知多传感器软硬件平台并进行了实车实验。通过对实际采集数据的分析,研究了一系列感知预处理算法:感兴趣区域提取、地面点分割、目标聚类与3D包围框拟合。为了减少3D真值标签的任务量,提出了一种基于全局点云地图的标注方法,便于感知算法在实车上的高效迭代。最终的实验结果验证了本文感知算法的效果。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕业设计货栈 ,原文地址:https://m.bishedaima.com/lunwen/46570.html