8个研究背景和意义示例,教你写计算机EfficientNet论文

今天分享的是关于EfficientNet的8篇计算机毕业论文范文, 如果你的论文涉及到EfficientNet等主题,本文能够帮助到你 基于深度学习的航标外观状态智能识别技术研究 这是一篇关于航标

今天分享的是关于EfficientNet的8篇计算机毕业论文范文, 如果你的论文涉及到EfficientNet等主题,本文能够帮助到你

基于深度学习的航标外观状态智能识别技术研究

这是一篇关于航标,图像分类,目标检测,EfficientNet,Faster-RCNN的论文, 主要内容为航标是保障船舶安全航行的重要基础助航设施。航标的稳定运行对于维护水域内航行安全具有重大意义,因此航标的养护是航道管理部门的一项非常重要任务。航标养护的核心关注点在于对失常航标的及时发现并迅速采取相应措施。随着数字航道项目的实施,航标遥测遥控系统的广泛应用使得航道管理部门可以实时监控航标的位置和灯质等状态并及时发现位置漂移和灯光异常等现象。然而对于航标外观结构状态的变化和异常仍需要周期性的人工巡航去发现。随着人工智能技术的发展,利用无人机和无人艇开展航标巡检将会是航标养护和管理的一个新方向。那么如何利用计算机视觉技术快速准确地识别航标的外观状态将是保障和提升无人航标巡检智能性和效率的重要基础,目前相关研究刚刚起步。本文利用基于深度学习的方法研究航标外观状态的智能识别,主要研究内容如下:1)构建航标外观检测数据集。对航道部门在航标养护过程中采集的航标图像进行人工数据筛选,根据航道部门管理需求将航标破损分为:基本形状大体不变、主体结构损坏、顶标损坏和漆面破损等4钟类别,并利用图像翻转、随机旋转、随机明暗变化及雨雾增强算法扩充破损航标图像占比平衡样本,使用航标轮廓增强算法作为数据集预处理算法,分别构建用于航标破损分类和航标破损位置标注的航标外观检测图像数据集。2)构建基于Efficient Net的航标破损分类模型。基于Efficient Net-b0,将其MBConv结构改进为Fused MBConv,以提升模型的准确率和运算速度。实验结果表明,改进的Efficient Net-b0模型,对比原生Efficient Net-b0、Efficient Net V2-S等其他模型,在航标破损分类准确率稍有提升的同时,能够减少了20%的训练时间。3)构建基于改进Efficient Net和Faster-RCNN的航标破损位置检测模型。以FasterRCNN检测模型为基本框架,利用改进的Efficient Net-b0改进其原有骨干网络,不仅大幅度降低了参数量,加快检测深度,而且明显提升了检测准确率。实验结果表明,其AP和m AP对比原生Faster-RCNN和YOLOV3均有明显提升,但检测速度低于YOLOV3。

基于多模型融合网络的服装多属性识别方法研究

这是一篇关于多模型融合网络,EfficientNet,服装多属性识别,服装推荐的论文, 主要内容为在信息技术高速发展的今天,服装商品的数量越来越庞大,种类款式越来越多,消费者可以非常便捷的获取到大量的服装信息。服装产业数字化的飞速发展为消费者带来了积极的一面,同时也为消费者带来了一定程度上的困扰:可供选择的太多,选择本身就成了一种负担。提高服装检索效率、增添服装个性化推荐等新型业务,成为了提高消费者线上服装购物体验度的重要环节,而这些新业务依赖于丰富且准确的服装属性信息。但服装作为一类特殊的商品,其具有柔软可形变、种类多样等特点,导致在识别过程中存在因服装褶皱形变、部分部位受遮挡等客观原因影响识别效果以及识别结果单一等问题。针对以上问题,本文提出一种基于多模型融合网络的服装识别方法,并对服装多属性识别进行研究,基于识别结果对服装个性化推荐应用进行初步实现与验证。本文进行如下研究工作:(1)对服装属性进行研究,通过分析服装在视觉传达中包含的不同语义信息,获得服装的多种特性。主要对服装的颜色、款式和类别所具备的特点进行深入研究,提出客观的服装数据集层级标签划分方法。(2)针对服装识别任务中存在的问题,提出了基于多模型融合网络的服装识别方法,通过Efficient Net和Res Net-18模型分别对服装全局和局部特征进行提取,将多特征进行融合以提高复杂影响条件下的识别精度。对Efficient Net和Res Net-18网络模型进行研究,并针对已知缺陷对模型结构进行改进。提出Fused-MBConv模块替换原模型浅层结构中的MBConv模块旨在降低模型参数量、提高训练速度。引入SK模块实现模型自适应调整感受旨在增加提取特征的能力。对Res Net-18网络进行轻量化改进,以降低多模型融合网络的复杂度。(3)针对识别结果单一的问题,本文对多标签学习和多任务学习进行研究,通过实验比较选择适合本文多属性识别任务的方法。并基于上述成果对服装推荐应用方法进行探索与实现,采用基于服装内容和协同过滤方法实现服装推荐,并搭建WEB系统旨在验证服装推荐部分的可行性与实用性。

基于深度学习的航标外观状态智能识别技术研究

这是一篇关于航标,图像分类,目标检测,EfficientNet,Faster-RCNN的论文, 主要内容为航标是保障船舶安全航行的重要基础助航设施。航标的稳定运行对于维护水域内航行安全具有重大意义,因此航标的养护是航道管理部门的一项非常重要任务。航标养护的核心关注点在于对失常航标的及时发现并迅速采取相应措施。随着数字航道项目的实施,航标遥测遥控系统的广泛应用使得航道管理部门可以实时监控航标的位置和灯质等状态并及时发现位置漂移和灯光异常等现象。然而对于航标外观结构状态的变化和异常仍需要周期性的人工巡航去发现。随着人工智能技术的发展,利用无人机和无人艇开展航标巡检将会是航标养护和管理的一个新方向。那么如何利用计算机视觉技术快速准确地识别航标的外观状态将是保障和提升无人航标巡检智能性和效率的重要基础,目前相关研究刚刚起步。本文利用基于深度学习的方法研究航标外观状态的智能识别,主要研究内容如下:1)构建航标外观检测数据集。对航道部门在航标养护过程中采集的航标图像进行人工数据筛选,根据航道部门管理需求将航标破损分为:基本形状大体不变、主体结构损坏、顶标损坏和漆面破损等4钟类别,并利用图像翻转、随机旋转、随机明暗变化及雨雾增强算法扩充破损航标图像占比平衡样本,使用航标轮廓增强算法作为数据集预处理算法,分别构建用于航标破损分类和航标破损位置标注的航标外观检测图像数据集。2)构建基于Efficient Net的航标破损分类模型。基于Efficient Net-b0,将其MBConv结构改进为Fused MBConv,以提升模型的准确率和运算速度。实验结果表明,改进的Efficient Net-b0模型,对比原生Efficient Net-b0、Efficient Net V2-S等其他模型,在航标破损分类准确率稍有提升的同时,能够减少了20%的训练时间。3)构建基于改进Efficient Net和Faster-RCNN的航标破损位置检测模型。以FasterRCNN检测模型为基本框架,利用改进的Efficient Net-b0改进其原有骨干网络,不仅大幅度降低了参数量,加快检测深度,而且明显提升了检测准确率。实验结果表明,其AP和m AP对比原生Faster-RCNN和YOLOV3均有明显提升,但检测速度低于YOLOV3。

基于深度学习的锻件缺陷检测方法研究

这是一篇关于锻件缺陷检测,目标检测,EfficientNet,超参数优化的论文, 主要内容为汽车制造业高度依赖零件供应支撑,其中锻造的金属汽车零部件更是被广泛使用。但在锻造加工过程中,零件容易产生缺陷,需要进行检测。由于有些缺陷难以直接用肉眼检测,因此很多企业先用荧光磁粉探伤法显示缺陷,工人再用肉眼检测缺陷。但人工检测的方式成本较高,且检测人员疲劳时容易出现误检和漏检。因此实现智能化的荧光磁粉检测具有极为重要的研究意义和实用价值。本文针对以上问题,以汽车用法兰盘和油缸盖为对象,使用机器视觉技术研究锻件检测方法。主要研究工作如下:(1)首先,明确荧光磁粉探伤智能检测的需求。其次,针对检测需求构建锻造零件荧光磁粉探伤缺陷数据集,并搭建智能检测平台。采集到原始缺陷图像共450张,随机选取80%的图像为训练集,10%为测试集,10%为验证集。最后通过数据增强方法得到包含总共1500张图像的数据集。智能检测平台模拟了生产中的实际场景,主要由固定支架、黑光灯和CCD工业相机组成。(2)针对检测需求和数据集特点,基于改进的Efficient Net设计目标识别模型。数据集中目标缺陷有以下特征:首先,缺陷尺度大小不一,形貌特征复杂;其次,目标分布在图像中的各区域却缺陷背景复杂多变;第三,光线条件不佳,导致图像质量较差。针对以上特征,构建了以Efficient Net为主干特征提取网络的深度学习模型,并引入特征金字塔为特征融合层,进而提高模型的多尺度特征融合能力;引入完备交并比和注意力机制以提高模型鲁棒性和检测效率,将最终的模型命名为Efficient Net-F。试验表明,Efficient Net-F的最优模型在测试集上的均值平均精度达到了95.03%。F1得分值为0.96,浮点运算数为1.86B。(3)针对Efficient Net-F的性能对其超参数较为敏感,但超参数手动调整费时费力的问题,提出了一种基于进化算法的超参数优化算法。选取Efficient Net-F中7种不同的关键参数进行优化,最终得到Efficient Net-PSO模型。该超参数优化算法与其他5种不同的算法对比,收敛精度具有明显优势。超参数优化后的目标识别模型检测精度小幅提升。

基于卷积神经网络和集成学习的声纳图像识别研究

这是一篇关于卷积神经网络,显著性检测,EfficientNet,集成学习,声纳图像识别的论文, 主要内容为水下目标的精确识别在水下无人勘探领域起着至关重要的作用。声纳图像通常存在图像本身可用信息有限和样本少等特点。采用传统的机器学习方法进行声纳图像的识别不仅自主性和效率低下,而且对于高层特征提取不理想,致使传统的声纳目标识别方法很难取得较好的识别效果。目前,卷积神经网络在水下目标识别领域已经得到应用。但是,过深的卷积神经网络具有模型大、对硬件要求高、识别速度低等问题。而这些问题也制约着深度学习网络模型在现实中的推广应用。因此,本文针对声纳图像的特点及其在军用民用领域的广泛需求,在保证合理识别速度的情况下,为提高水下目标识别的准确率,研究了基于卷积神经网络与集成学习的声纳图像识别方法。本文的主要研究和工作内容如下:首先,研究了卷积神经网络与集成学习的相关理论。接着设计了联合YOLO-Fastest快速批量声纳图像目标定位裁剪和显著检测的图像预处理方法。该方法可以有效地减小输入图像背景对目标特征提取过程的干扰,聚焦图像中有价值区域,提高数据处理效率。预处理后的图像作为后续特征提取网络的输入。针对现有大规模深度卷积神经网络模型过大且不利于嵌入式硬件平台部署等问题,本文研究了目前轻量化卷积神经网络Efficient Net-B0基线模型。针对声纳图像中有效信息少等特点,引入空间特征金字塔池化SPP进行加强特征提取与局部高级语义多尺度特征融合,提高了识别准确率。针对声纳图像小样本训练时识别准确率不高的问题,研究并设计了基于卷积神经网络和集成学习的声纳图像识别模型。模型强分类器由逻辑斯蒂回归、支持向量机以及决策树集成。不仅能够获得比单一分类器更好的效果,还能减少训练过程对所需数据的依赖程度。在声纳图像训练样本较少的情况下,其优越性更加凸显,使模型更加符合小样本的声纳图像。基于此,本文分别设计了基于改进的Efficient Net和集成学习的声纳图像识别模型、基于改进的Mobile Net V3和集成学习的声纳图像识别模型以及联合双模型和集成学习的声纳图像识别模型。实验结果表明,在实测声纳图像数据集上,基于卷积神经网络与集成学习的声纳图像识别方法能够有效提升识别准确率,最高识别准确率可达99.5%。将训练好的基于改进的Efficient Net与集成学习的声纳图像识别模型移植到嵌入式硬件平台Jetson Nano上并采用Tensor RT进行加速,网络模型平均识别精度99.1%,平均每幅图识别时间约168ms,达到嵌入式平台部署的实时性要求。

基于深度学习的锻件缺陷检测方法研究

这是一篇关于锻件缺陷检测,目标检测,EfficientNet,超参数优化的论文, 主要内容为汽车制造业高度依赖零件供应支撑,其中锻造的金属汽车零部件更是被广泛使用。但在锻造加工过程中,零件容易产生缺陷,需要进行检测。由于有些缺陷难以直接用肉眼检测,因此很多企业先用荧光磁粉探伤法显示缺陷,工人再用肉眼检测缺陷。但人工检测的方式成本较高,且检测人员疲劳时容易出现误检和漏检。因此实现智能化的荧光磁粉检测具有极为重要的研究意义和实用价值。本文针对以上问题,以汽车用法兰盘和油缸盖为对象,使用机器视觉技术研究锻件检测方法。主要研究工作如下:(1)首先,明确荧光磁粉探伤智能检测的需求。其次,针对检测需求构建锻造零件荧光磁粉探伤缺陷数据集,并搭建智能检测平台。采集到原始缺陷图像共450张,随机选取80%的图像为训练集,10%为测试集,10%为验证集。最后通过数据增强方法得到包含总共1500张图像的数据集。智能检测平台模拟了生产中的实际场景,主要由固定支架、黑光灯和CCD工业相机组成。(2)针对检测需求和数据集特点,基于改进的Efficient Net设计目标识别模型。数据集中目标缺陷有以下特征:首先,缺陷尺度大小不一,形貌特征复杂;其次,目标分布在图像中的各区域却缺陷背景复杂多变;第三,光线条件不佳,导致图像质量较差。针对以上特征,构建了以Efficient Net为主干特征提取网络的深度学习模型,并引入特征金字塔为特征融合层,进而提高模型的多尺度特征融合能力;引入完备交并比和注意力机制以提高模型鲁棒性和检测效率,将最终的模型命名为Efficient Net-F。试验表明,Efficient Net-F的最优模型在测试集上的均值平均精度达到了95.03%。F1得分值为0.96,浮点运算数为1.86B。(3)针对Efficient Net-F的性能对其超参数较为敏感,但超参数手动调整费时费力的问题,提出了一种基于进化算法的超参数优化算法。选取Efficient Net-F中7种不同的关键参数进行优化,最终得到Efficient Net-PSO模型。该超参数优化算法与其他5种不同的算法对比,收敛精度具有明显优势。超参数优化后的目标识别模型检测精度小幅提升。

基于深度学习的锻件缺陷检测方法研究

这是一篇关于锻件缺陷检测,目标检测,EfficientNet,超参数优化的论文, 主要内容为汽车制造业高度依赖零件供应支撑,其中锻造的金属汽车零部件更是被广泛使用。但在锻造加工过程中,零件容易产生缺陷,需要进行检测。由于有些缺陷难以直接用肉眼检测,因此很多企业先用荧光磁粉探伤法显示缺陷,工人再用肉眼检测缺陷。但人工检测的方式成本较高,且检测人员疲劳时容易出现误检和漏检。因此实现智能化的荧光磁粉检测具有极为重要的研究意义和实用价值。本文针对以上问题,以汽车用法兰盘和油缸盖为对象,使用机器视觉技术研究锻件检测方法。主要研究工作如下:(1)首先,明确荧光磁粉探伤智能检测的需求。其次,针对检测需求构建锻造零件荧光磁粉探伤缺陷数据集,并搭建智能检测平台。采集到原始缺陷图像共450张,随机选取80%的图像为训练集,10%为测试集,10%为验证集。最后通过数据增强方法得到包含总共1500张图像的数据集。智能检测平台模拟了生产中的实际场景,主要由固定支架、黑光灯和CCD工业相机组成。(2)针对检测需求和数据集特点,基于改进的Efficient Net设计目标识别模型。数据集中目标缺陷有以下特征:首先,缺陷尺度大小不一,形貌特征复杂;其次,目标分布在图像中的各区域却缺陷背景复杂多变;第三,光线条件不佳,导致图像质量较差。针对以上特征,构建了以Efficient Net为主干特征提取网络的深度学习模型,并引入特征金字塔为特征融合层,进而提高模型的多尺度特征融合能力;引入完备交并比和注意力机制以提高模型鲁棒性和检测效率,将最终的模型命名为Efficient Net-F。试验表明,Efficient Net-F的最优模型在测试集上的均值平均精度达到了95.03%。F1得分值为0.96,浮点运算数为1.86B。(3)针对Efficient Net-F的性能对其超参数较为敏感,但超参数手动调整费时费力的问题,提出了一种基于进化算法的超参数优化算法。选取Efficient Net-F中7种不同的关键参数进行优化,最终得到Efficient Net-PSO模型。该超参数优化算法与其他5种不同的算法对比,收敛精度具有明显优势。超参数优化后的目标识别模型检测精度小幅提升。

基于加权抽样分层分类学习方法的茶叶病害分类

这是一篇关于茶病,EfficientNet,分层分类,加权抽样,微信小程序的论文, 主要内容为茶叶病害是茶树生长过程中不可避免的问题,传统的病害识别方法费工费时、精确度差,且难以应对茶叶病害小样本且分布不均匀、茶叶病害之间相似度高等问题。为了解决这些问题,本文提出了一种基于高效骨干网模型的加权抽样分层分类学习方法。该方法在Efficient Net模型为高效骨干网络进行分层分类学习的基础上,通过增强特征提取能力,有效缓解茶叶病害之间相似度高对模型分类性能的影响。另外,为了更好的解决茶叶病害样本少且分布不均匀的情况,本文还引入了加权抽样的方案,该方案不仅缓解了样本数据过少带来的过拟合影响,还使不平衡的分类数据抽到的概率大致平衡,进一步提高了识别准确率。本文以茶叶健康和茶叶的4类常见叶部病害(茶藻斑病,茶白星病,茶炭疽病,茶云纹叶枯病)为主要研究对象,在基于7种不同的高效骨干网络中引入“加权抽样分层分类学习方法”进行训练,并对加入该学习方法前后的模型进行效果对比分析,使用准确率(Accuracy)、精确率(Precision)、召回率(Recall)、f1-score进行评估。实验结果表明,7种模型在引入加权抽样分层分类学习方法后,其准确率大多有所提高,其中Shuff Net-V2模型在加入该学习方法后准确率提高了12.21%,而Efficient Net-B1模型在加入本文学习方法后准确率高达99.21%,相较于Efficient Net-b2(98.82%)和Mobile Net-V3(98.43%),识别准确率得到了进一步提升。这表明,加权抽样分层分类学习方法在茶叶病害识别中具有很好的效果,可以帮助提高模型的分类性能。而后利用迁移学习的混淆矩阵和模型可视化对模型进行评估和可视化,从而进一步的帮助我们提高模型的性能和理解模型的工作原理。最后,研究者开发了一个识别茶叶病害的微信小程序,通过该小程序,用户可以方便快捷地获取准确的茶叶病害识别结果和对应的病害描述以及防治方法。该小程序不仅可以帮助果农和相关科研人员更好地甄别茶叶病害,提高茶叶种植的质量和产量,还可以帮助消费者更好地了解茶叶的品质和病害情况,增强消费者的购买信心。因此,该小程序具有一定的实用性。总之,基于高效骨干网模型的加权抽样分层分类学习方法在茶叶病害识别中具有很好的效果。该方法可以有效地缓解茶叶病害之间相似度高和样本少且分布不均匀的问题,提高模型的分类性能和准确率。该研究还为茶叶病害识别领域的研究提供了新的思路和方法,有望在农业生产和消费领域产生广泛的应用和推广。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设向导 ,原文地址:https://m.bishedaima.com/lunwen/54392.html

相关推荐

发表回复

登录后才能评论