基于深度学习的垃圾分类算法研究与应用
这是一篇关于YOLO,卷积神经网络,目标检测,结构重参数化,BiFPN,NCNN,垃圾识别的论文, 主要内容为随着国家综合实力的不断增强,人民物质需求的不断提高,产生的垃圾数量也在不断增加,正确的垃圾分类不仅可以减小垃圾对环境的影响,还可以带来资源和经济价值。随着深度学习技术的发展,利用目标检测技术检测垃圾具有了可能性。传统的目标检测模型体积巨大,这给模型移植到嵌入式设备中带来了很大的难度,因此本文通过改进目标检测模型,减少了模型体积,加快了推理速度,提高了检测精度。并把模型移植到Android设备中更加便捷快速地对垃圾进行识别,降低了垃圾分类的难度,提高了居民生活垃圾的分类效率。主要内容如下:(1)目标检测模型的选取。本文深度对比分析了单阶段和双阶段的目标检测算法,选取双阶段的Faster R-CNN算法和单阶段的SSD算法和本文改进的YOLOV5算法进行对比分析,发现双阶段算法的m AP值与单阶段算法的m AP值相当,满足了目标检测的基本要求,但Faster R-CNN检测每张图片的耗时是SSD的1.6倍,是YOLO的9.5倍。因此,单阶段目标检测算法在训练时间、推理速度还是模型大小方面都具有较强的优势,比较适合移植到嵌入式设备中。(2)YOLOV5模型的改进与优化。本文以YOLOV5模型为研究对象,对Backbone结构进行了改进,用Mobile Net、Shuffle Net、Efficient Net的特征提取结构替换Backbone,得到了推理速度、检测精度和模型大小不同的轻量YOLO模型以供模型移植选择。将原始的New CSP-Draknet53结构替换为Rep VGG结构,提升了网络的精度,并使用结构重参数化技术加快了网络的推理速度,在保证模型精度的前提下,推理速度提升了8%,计算量下降了3.2%。对Neck结构进行了改进,使用Bi FPN结构加强了不同特征层之间的融合,提高了网络的精度,m AP@.5提高了1.1个百分点,m AP@.5:.95提高了2个百分点。通过调节学习率的大小找到了适合本垃圾分类数据集的最佳学习率。本文改进后YOLOV5模型相比YOLOV3和YOLOV4,模型的大小显著降低,精度也有所提高。相较于YOLOV5系列,改进后YOLOV5体积比YOLOV5s略大,但是在精度上有很大提高,并且比YOLOV5m体积更小,精度更高。通过与其它其他目标检测模型如Efficient Det比较发现,本文改进后YOLO模型在检测速度和模型大小方面都占据优势。(3)模型的移植和软件设计。本文通过TFLite、Torch Script、NCNN把YOLO模型移植到嵌入设备中,并综合比较其部署难易程度和检测速度,为不同的场景提供了不同的移植方案。最后把YOLO模型和Android软件以及摄像头相结合,实现了易安装、精度高、速度快的多目标垃圾检测软件,用于满足日常生活中垃圾分类的需求。
基于深度学习的渔船船体识别研究
这是一篇关于渔船识别,深度学习,YOLOv5,BiFPN,Faster-R-CNN的论文, 主要内容为对渔船的有效管理是确保渔业活动顺利进行的基础,通过深度学习技术能够有效加强伏季休渔期渔船监管能力,对渔船管控、渔港治理和渔业资源可持续发展有重要的研究意义。传统方法对视频中船只的识别过程中受技术架构、动态背景、水文、波浪以及摄像头自身抖动等因素的影响,存在识别精确度不高且有较高的误报率和漏报率的问题,导致视频识别不能很好的辅助渔港管理和服务。深度学习技术的发展为解决这一问题提供了技术支撑,深度学习技术的自动提取特征和泛化性强等特点可以提高监控中渔船的识别精确度和鲁棒性。本文通过对双阶段目标检测算法Faster-R-CNN和单阶段目标检测算法YOLOv5算法的研究,完成了渔船数据集制作、渔船检测和对现有算法的改进设计,具体工作如下:(1)提出了一种基于改进Faster-R-CNN算法的渔船目标检测模型,首先是锚框的优化,使用Kmeans++聚类算法对区域建议网络(RPN)生成的锚框的尺寸和位置进行优化;其次使用提取特征更好的Res Net50网络替换掉原算法中的VGG16网络,并且在Res Net50网络的卷积层加入坐标注意力机制(Coordinate Attention,CA)加强特征的提取;然后利用FPN网络将特征细节更多的低层次特征图与语义信息丰富的高层次特征图进行融合后;最后在预测框筛选时,使用Soft-NMS方法替换传统的NMS方法,降低重叠目标的漏检率。(2)基于YOLOv5设计一系列改进实验,首先通过Kmeans++算法对锚框重新聚类,选择适合渔船数据集的锚框尺寸;然后在YOLOv5的骨干网络中融入CBAM注意力机制获取更多细节特征;再采用加权双向特征金字塔网络(BiFPN)代替原先的FPN+像素聚合网络(PAN)结构,快速进行多尺度特征融合;最后在检测尺度上去掉大目标的检测尺度,增加更小目标的检测尺度,改用新的三个检测尺度,提高了模型对小目标渔船的检测精度。(3)对改进Faster-R-CNN算法和改进YOLOv5算法从精确度、召回率、检测速度和检测鲁棒性等多角度综合讨论分析两种算法的优缺点,其中为检测算法鲁棒性,对比分析了在大雾环境、渔船船体显示不全、船体不同朝向和光照影响等不同海况下两种算法的性能,并且针对算法的不足之处提出改进的思路。(4)设计和实现了一个基于改进YOLOv5算法和B/S架构的渔船识别系统。根据两种改进后算法的性能对比结果,采用性能更优的改进YOLOv5算法,基于港区的视频监控数据,对渔船流量统计、进出港、特殊管控时期(台风、禁渔期)的船舶异动和夜间行为等实现动态可视化智能监管。
基于YOLOv4的遥感图像目标检测算法研究与实现
这是一篇关于遥感,目标检测,YOLOv4,DenseNet,BiFPN,CDIoU损失的论文, 主要内容为遥感目标检测是利用遥感技术和计算机视觉技术对遥感图像中的目标进行识别和定位,在军事、安全、环境、资源管理等领域具有重要的应用价值。虽然当前的目标检测算法已经取得了很大的进步,但对于背景复杂、可用纹理信息少的遥感目标检测任务来说,仍面临着以下难点:首先,主干网络卷积层过深丢失遥感小目标语义信息,造成遥感小目标漏检;其次,不同分辨率特征层之间直接采用加和方式融合,导致特征冗余,利用不充分。因此,为提高遥感目标检测的精度和速度,本文改进YOLOv4模型的主干网络特征提取模块和颈部特征融合模块,使其更适合遥感目标检测。主要的研究内容及创新工作如下:首先,为了解决层数过深的主干网络易丢失遥感小目标语义信息的问题,本文提出以密集连接网络(DenseNet)改进YOLOv4主干网络,以提升特征提取能力。把模型主干网络的两个八层残差的后四层分别替换为改进的DenseNet,并删除Denseblock中最前面的ReLU激活函数,以此来保证后续的网络状态;再为Dense Block模块添加一个扩张卷积,来增大网络的感受野;并采用跳跃连接的方式部署网络,使得神经网络更容易训练。通过在DOTA数据集上的实验表明,该改进方法提高了遥感小目标的检测精度。其次,针对原YOLOv4的特征融合模块特征信息利用不充分、融合能力不足的问题,本文提出以改进的加权双向特征金字塔网络(Bidirectional Feature PyramidNetwork,Bi FPN)作为特征融合模块,提升YOLOv4网络的特征融合能力。改进的Bi FPN采用各层分辨率作为权重系数,融合时明确每层特征对网络的贡献率,保证网络在训练过程中逐渐学习到每个输入特征的重要信息。并在颈部和头部之间添加了通道注意机制(Convolutional Attention Module,CAM),以提高对图像纹理信息的敏感性,特别是对于有限特征信息的目标。此外,改用CDIoU和CDIoU损失来提升边界框回归效果。实验结果表明,上述改进方法可以提高模型对特征信息有限目标的检测能力,检测到的目标数量也有所增加。最后,本文设计并实现了基于PyQt5的遥感图像目标检测软件平台,以便更友好地展示遥感目标检测功能。
基于图像细粒度分类的中餐菜品识别系统
这是一篇关于菜品识别,目标定位,细粒度分类,破坏与重构,注意力机制,BiFPN,Swin,级联操纵的论文, 主要内容为菜品识别有广阔应用前景,如自助食物售卖、食品营养评估及分析、热量测量及美食推荐系统等。中餐菜品种类复杂、不同种类菜品之间相似度高、同类菜品具有多种形态,因此中餐菜品识别是计算机视觉领域一个有挑战性的难题。本文立足于中餐菜品图像中常具有多目标的特点,基于中餐菜品分类数据集Chinese FoodNet,补充了多目标的中餐菜品图像,通过级联中餐菜品位置检测模型与中餐菜品细粒度分类模型,开发了可在移动端应用的多/单目标中餐菜品识别系统。主要工作包含以下几个方面:(1)中餐菜品位置检测模型Ca-BiYoLo-Swin。由于目前公开的大型数据集仅有中餐分类数据集,完成多目标检测任务还需图像中目标位置信息,本文在YOLOv5-S的基础上,优化检测网络对位置信息敏感度与推理速度,得到CaBiYoLo-Swin。在特征提取阶段,将坐标注意力机制嵌入CSP1模块提高模型在空间中捕获远程依赖关系的能力和对空间位置信息的敏感度;在特征融合阶段,在CSP2模块中引入swin编码参数,增强特征图内部的空间语义信息,并使用BiFPN思想改进原有FPN结构,提高模型泛化能力。针对GPU平台,使用卷积优化Focus切片操纵;使用串联同等大小池化核优化SPP结构。实验结果表明,Ca-Bi Yolo-Swin网络相比原YOLOv5-S能更快捷有效的定位出CFood-Loc数据集目标区域。(2)中餐菜品细粒度分类模型DCL-EfficientNetV2。针对中餐菜品类内差距大,类间差距小,图像种类特征难提取的问题,提出DCL-EfficientNetV2模型。为了更好提取图像中的类别特征,在数据处理阶段引入破坏分支,将特征图打乱并重构;加入对抗性损失函数,提高网络对判别性区域特征的学习能力降低噪音影响;网络结构设计中使用Efficient V2-S提取图像特征并在MBconv模块中采取不降维局部跨信道交互策略;采用Softpool下采样方法,更好的保留特征图细节信息。训练阶段,采用区域对齐网络引导骨干网络通过端到端训练对局部区域之间进行相关性建模,帮助骨干网络理解目标。本文使用Chinese FoodNet进行测试,Top-1准确率为82.6%,Top-5准确率为96.7%,优于现有主流模型识别准确率。相比原破坏重构方法和EfficientNetV2-S,在经典细粒度数据集CUB-200-2011,Cars196和Aircrafts100数据集上,正确率分别提升3.5%、1.2%、1.7%和4.2%、2.9%、6%。(3)基于移动端的中餐菜品识别系统。为了便于应用本系统,开发了移动端的用户界面,并通过网络访问中餐菜品位置检测模型和中餐菜品细粒度分类模型得到检测结果,为管理员提供菜品信息管理;为用户提供注册登录,(多/单)中餐识别,原料、营养查询,上传图像功能。性能稳定,有较高实用性。
基于图像细粒度分类的中餐菜品识别系统
这是一篇关于菜品识别,目标定位,细粒度分类,破坏与重构,注意力机制,BiFPN,Swin,级联操纵的论文, 主要内容为菜品识别有广阔应用前景,如自助食物售卖、食品营养评估及分析、热量测量及美食推荐系统等。中餐菜品种类复杂、不同种类菜品之间相似度高、同类菜品具有多种形态,因此中餐菜品识别是计算机视觉领域一个有挑战性的难题。本文立足于中餐菜品图像中常具有多目标的特点,基于中餐菜品分类数据集Chinese FoodNet,补充了多目标的中餐菜品图像,通过级联中餐菜品位置检测模型与中餐菜品细粒度分类模型,开发了可在移动端应用的多/单目标中餐菜品识别系统。主要工作包含以下几个方面:(1)中餐菜品位置检测模型Ca-BiYoLo-Swin。由于目前公开的大型数据集仅有中餐分类数据集,完成多目标检测任务还需图像中目标位置信息,本文在YOLOv5-S的基础上,优化检测网络对位置信息敏感度与推理速度,得到CaBiYoLo-Swin。在特征提取阶段,将坐标注意力机制嵌入CSP1模块提高模型在空间中捕获远程依赖关系的能力和对空间位置信息的敏感度;在特征融合阶段,在CSP2模块中引入swin编码参数,增强特征图内部的空间语义信息,并使用BiFPN思想改进原有FPN结构,提高模型泛化能力。针对GPU平台,使用卷积优化Focus切片操纵;使用串联同等大小池化核优化SPP结构。实验结果表明,Ca-Bi Yolo-Swin网络相比原YOLOv5-S能更快捷有效的定位出CFood-Loc数据集目标区域。(2)中餐菜品细粒度分类模型DCL-EfficientNetV2。针对中餐菜品类内差距大,类间差距小,图像种类特征难提取的问题,提出DCL-EfficientNetV2模型。为了更好提取图像中的类别特征,在数据处理阶段引入破坏分支,将特征图打乱并重构;加入对抗性损失函数,提高网络对判别性区域特征的学习能力降低噪音影响;网络结构设计中使用Efficient V2-S提取图像特征并在MBconv模块中采取不降维局部跨信道交互策略;采用Softpool下采样方法,更好的保留特征图细节信息。训练阶段,采用区域对齐网络引导骨干网络通过端到端训练对局部区域之间进行相关性建模,帮助骨干网络理解目标。本文使用Chinese FoodNet进行测试,Top-1准确率为82.6%,Top-5准确率为96.7%,优于现有主流模型识别准确率。相比原破坏重构方法和EfficientNetV2-S,在经典细粒度数据集CUB-200-2011,Cars196和Aircrafts100数据集上,正确率分别提升3.5%、1.2%、1.7%和4.2%、2.9%、6%。(3)基于移动端的中餐菜品识别系统。为了便于应用本系统,开发了移动端的用户界面,并通过网络访问中餐菜品位置检测模型和中餐菜品细粒度分类模型得到检测结果,为管理员提供菜品信息管理;为用户提供注册登录,(多/单)中餐识别,原料、营养查询,上传图像功能。性能稳定,有较高实用性。
基于双向特征融合EfficientDet目标检测系统的研究与实现
这是一篇关于目标检测,R-CNN,EfiicientDet,BiFPN,SpringBoot,Vue的论文, 主要内容为在计算机视觉中最基础性的问题之一,目标检测受到全世界的关注和研究,2001年至2012年是传统机器学习的年代,代表算法有VJ检测器、HOG检测器、DPM模型。2012年深度学习横空出世,引领着目标检测走向新的高度,在深度学习飞速发展的同时,目标检测模型层出不穷,目前的目标检测框架大致分为两大类——单阶段目标检测器和两阶段目标检测器,其中两阶段目标检测器最早的代表是2014年的R-CNN,单阶段目标检测器最早的代表是2015年底的YOLO,而后目标检测的研究以这两种思想为基础不断优化衍生提升模型性能,其中两阶段目标检测器在精准率上有较好的表现。与此同时,特征提取主干网络也层出不穷,其中具有代表性的有VGG、Res Net等。本文选择谷歌团队2020年提出的两阶段目标检测器,基于Bi FPN特征融合网络的Efiicient Det为基线,并专注于重构特征融合网络、变更主干特征提取网络进行实验,同时进行基于B/S架构前后端分离的目标检测系统的搭建,主要内容如下:1.改进特征融合结构。Bi FPN结构是通过改进PANet而来,具有强大的性能。基于现有的特征融合结构,本文采用三种特征融合方式进行实验。2.更改特征提取网络。为确保实验的严谨性,选用Res Net主干特征提取网络进行对照试验,验证重构特征提取网络的有效性。3.开发目标检测系统。运用Vue和Spring Boot技术搭建一个基于B/S架构前后端分离的目标检测系统,实现网页交互的方式达到目标检测的效果。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码客栈 ,原文地址:https://m.bishedaima.com/lunwen/50042.html