基于改进PReNet的轻量级单幅图像去雨算法研究
这是一篇关于轻量级,图像去雨,PReNet算法,网络剪枝,特征提取的论文, 主要内容为单幅图像去雨是计算机视觉领域的难题之一。在自然环境中,雨纹呈现不同尺度和不同方向的特点,增加了图像去雨难度。PReNet(Progressive Image Deraining Networks)算法作为目前去雨性能较好的轻量级单幅图像去雨算法,适用于实际存储资源受限的场合,但其尚存在雨纹去除不彻底和无法精细恢复图像背景细节等问题。因此,对PReNet算法进行改进,以保持其模型轻量的同时提升其去雨性能来满足实际应用需求,具有重要的理论和实际意义。论文对PReNet算法的原理进行了深入分析,围绕网络剪枝、多尺度特征提取、通道特征关联性和网络训练方式四个方面进行改进研究,构建了轻量级单幅图像去雨算法PRe Dense Net。论文的主要工作和贡献如下:1针对PReNet算法去除雨纹不彻底和无法精细恢复背景细节问题,改进并构建了轻量级去雨算法PReNet_D。首先引入空洞卷积增大PReNet算法感受野,在不增加模型复杂度情况下获取更多上下文信息,可提取多尺度雨纹特征;进而针对空洞卷积引起的无法有效获取多尺度信息和损失信息连续性问题,利用混合空洞卷积可有效提取多尺度物体信息性能,帮助去除雨纹;最后,在训练时引入感知损失,让去雨图像与参考无雨图的高层信息更加接近,以提高生成图像质量。2受到PReNet算法多阶段逐步去雨和模块间参数共享思想的启发,针对PReNet_D算法特征提取模块会影响信息在网络中传播的问题,改进并构建了轻量级单幅图像去雨算法PRe Dense Net。首先使用轻量级残差密集连接块作为特征提取模块,去除其批归一化和平均池化操作来减少模型参数,并引入空洞卷积和混合空洞卷积来有效提取多尺度雨纹信息,提升雨纹去除效果;其次,针对通道级特征缺乏关联性问题,引入压缩-激励模块来自适应学习各通道的权重值,从而提升去雨性能;此外,针对各阶段之间相关性问题,引入更轻量的GRU(Gate Recurrent Unit)来增强网络的长期记忆能力,前面阶段提取的重要特征可帮助后续阶段有效去雨;最后,在网络训练方面,使用像素级损失函数MSE(Mean Squared Error)和感知损失函数作为整体的损失函数来训练网络,帮助恢复图像背景细节。综合所有改进,形成一种轻量级单幅图像去雨算法PRe Dense Net。在Rain100H、Rain100L和Rain12三个合成数据集以及真实有雨图片上的实验结果表明,所提算法在保证模型轻量的同时,可以取得更好的去雨性能以及视觉上更清晰的去雨效果。
基于AI的终端高性能业务识别方法研究与实现
这是一篇关于终端,业务识别,深度包检测,深度学习,知识蒸馏,网络剪枝的论文, 主要内容为随着移动网络的普及,AR/VR、智慧城市、工业互联网等多场景应用逐步走进人们的生活,接入网络的终端设备数量爆发式增长。网络中海量数据的出现增加了终端业务识别的难度,对业务识别算法的识别速度及准确度提出了更高的要求。传统的业务识别方法,如:基于端口的流量识别、深度包检测和流量特征统计等,无法准确高效地识别多样化的业务流量。鉴于深度学习的固有优势,越来越多的研究致力于通过神经网络对业务种类进行识别,但是神经网络模型通常需要大量的存储空间,并耗费过多的计算资源。现实环境中设备的存储和计算资源是有限的,导致神经网络的应用仍然存在一定的局限性。针对上述问题,本文深入研究了基于人工智能的终端业务模型高性能算法。。本文主要进行了以下三方面的研究。(1)针对终端业务流量中部分应用采取流量加密进行通信的情况,提出了一种基于DPI和深度学习相结合的业务流量识别算法。首先对于抓取的数据集进行数据预处理,提取能够代表各类型业务的特殊字段、统计特征或语义信息等,并根据这些信息建立相应的特征匹配规则用于后续的检测匹配。对于无法通过特征匹配的业务流量,则将其输入到预训练的CNN模型中进行业务流量识别。仿真结果表明,与传统单一算法相比本文所提出的算法能快速并且准确的识别加密的网络业务流量类型,准确率提升1.12个百分点,在11分类的业务识别任务上准确率达到96.12%。与传统两阶段算法相比,识别效率提升了近18个百分点。(2)针对大规模神经网络中存在大量参数冗余导致网络业务流量识别模型难以在资源受限的终端设备进行部署的问题,提出了基于知识蒸馏和网络剪枝的轻量化业务识别模型算法。具体地,首先使用基于泰勒展开的剪枝方法对小规模网络的参数进行重要性排序并删减部分参数,压缩模型参数、降低运算量和复杂度。然后,使用知识蒸馏将大型网络Res Net50的知识迁移至小型网络,让小型网络通过损失函数拟合大型神经网络输出的软标签信息,完成大型神经网络的知识迁移。实验结果表明,该方法可以压缩小型网络的模型大小,并提升识别的准确率。与原始小型网络相比,模型准确率提升了2.24个百分比,达到97.24%。模型参数量压缩了81.9%,浮点运算次数压缩了92.1%,更加适合部署在资源受限的设备中。(3)通过实验室环境的搭建成功实现了高性能业务识别系统,并自动化了从数据包抓取到业务识别的流程。该系统能够准确辨别不同类型的业务流量,有效管控用户行为。同时,该系统还能够实时监控和展示终端用户网络行为,从而提升网络安全和保护数据隐私。
基于YOLOv5s的生活垃圾检测及系统设计
这是一篇关于目标检测,垃圾分类系统,注意力机制,轻量化,网络剪枝,知识蒸馏的论文, 主要内容为近年来,我国开始积极推广垃圾分类政策,但存在人们普遍缺乏相关知识,以及人工引导分类人力成本高等问题。随着目标检测技术的发展,借助该技术辅助市民进行垃圾分类,为垃圾分类政策的推广提供了一种新思路。目前垃圾分类的智能研究存在可检测类别较少、模型特征提取能力不足、检测实时性较差等问题。为了解决上述问题,本文从网络模型结构、模型复杂度等方面展开研究,设计并实现了一种基于CGPD-YOLOv5s的垃圾分类系统,该系统能够有效地进行多类别垃圾检测。本文的主要工作内容如下:(1)构建了包含多个类别的H2生活垃圾数据集。首先合并“华为云杯”数据集和HGI30数据集,接着剔除部分模糊、高度重复的数据,然后以PASCAL VOC格式标注数据,最后通过数据增强扩充部分数据集。构建的H2生活垃圾数据集共有23518张图片,包含57种垃圾,它们被分为4个类别:可回收垃圾、厨余垃圾、有害垃圾和其他垃圾。(2)提出了一种基于CGPD-YOLOv5s的生活垃圾检测方法。针对垃圾尺寸变化大、重叠遮挡以及YOLOv5s模型复杂、计算量大等问题,提出了一种基于CA注意力和Ghost Net的CG-YOLOv5s模型。其中,在YOLOv5s的颈部融合CA注意力机制可以更好地获取全局感受野,提升模型的特征提取能力;然后通过Ghost Net进行网络轻量化设计,采用Ghost Conv进行特征提取,基于G-Bottle Neck构建G-C3模块,以实现减少模型参数量、提高推理速度的目的。由于改进后的CG-YOLOv5s模型仍存在参数冗余,以及检测精度下降的问题,本文通过网络剪枝和知识蒸馏的策略进一步优化模型,得到CGPD-YOLOv5s。在H2生活垃圾数据集上的实验结果表明,CGPD-YOLOv5s相较于YOLOv5s在网络体积上压缩了75.5%,在实时推理速度上提升了46.8%,在模型精度上接近于YOLOv5s。可见CGPD-YOLOv5s在检测精度损失较小的情况下降低了模型的复杂度,适合部署在移动终端。(3)设计并实现了一种基于CGPD-YOLOv5s的垃圾分类系统。首先,对系统进行功能性需求分析和非功能性需求分析;然后,设计了系统总体架构、系统功能模块和数据库;最后,使用HTML、CSS、React框架、Antd组件库、My SQL数据库等技术实现了垃圾分类系统的用户子系统和管理员子系统。其中,用户子系统包括注册登录、生活垃圾检测、文本信息检索等功能;管理员子系统包括用户信息管理、检测记录管理、反馈数据审核等功能。(4)测试垃圾分类系统。从功能性和非功能性两个方面进行系统性能测试,测试结果表明,系统各功能模块基本达到设计要求,生活垃圾检测功能在系统中表现出较好的实时性和精度,系统页面较为简洁美观,兼容性良好。
卷积神经网络压缩算法研究及FPGA设计验证
这是一篇关于卷积神经网络,网络剪枝,网络量化,FPGA,硬件加速器的论文, 主要内容为近年来,随着深度学习的研究不断发展,以卷积神经网络(CNN)为代表的网络模型已经在自然语言、自动驾驶和计算机视觉等领域内取得了巨大的成功,但这些成功依赖于巨大的参数量和运算量,造成了诸多实际应用很难在特定场景落地。这就带来两点挑战,第一,在不显著降低模型精度的情况下,能够大幅度减少模型的运算量和参数量;第二,在资源受限的硬件平台上,对模型进行加速并提升其性能。在过去的一段时间里,人们探索过众多关于模型压缩和加速相关的问题,然而大部分是对压缩或者加速单方面的研究。针对以上问题,本文着眼于卷积神经网络模型压缩和硬件加速问题展开了研究,主要工作内容如下:1.首先本文研究并实现一种通道独立阈值剪枝算法,将网络BN层的缩放系数作为特征图通道重要性的评估指标,测试每个网络层对剪枝的敏感度,根据敏感度曲线,每个网络层设置独立的剪枝阈值,并裁剪掉对应的卷积核及其连接。本算法在VGG-16和Mobile Net网络上进行了相关的实验,在模型准确率分别下降了0.24%和0.6%的情况下,对VGG网络参数量降低了95.52%,FLOPs降低了59.55%,Mobile Net网络的参数量降低了83.83%,FLOPs降低了86.33%。2.针对将模型实际部署到硬件上的量化方案,普遍使用的是后训练量化(Post Training Quantization,PTQ)算法,虽然操作比较友好便捷,然而却有着不小的精度损失。本文设计了一种基于QIO(Integer-Arithmetic-Only)的量化方法,在训练时插入伪随机量化节点,推理时使用整型计算,能够在软件训练过程中就能模拟实际部署的误差,实验结果表明准确率误差不超过1%。3.最后基于FPGA对上述压缩后的CNN加速器进行设计和验证,通过设计特定的阵列来处理大量的卷积运算,利用循环交换增加数据复用从而优化数据运算,在数据缓存过程中,使用读写并行的方式进行加速,同时采用有限状态机和流水线的方法来控制在FPGA上的执行流程。然后使用Intel的FPGA器件结合相应的EDA工具实现加速器的代码设计与综合,搭建测试平台对加速器进行仿真验证。实验结果表明,本文的FPGA加速器的识别精度与软件上量化后模型的识别精度误差为0.61%,其性能大约为77.15GOPS,能效比为7.17GOPS/W,与传统硬件加速器和其他文献中设计的FPGA加速器相比,本文针对压缩后的卷积神经网络而设计的FPGA加速器取得了较好的加速效果。
卷积神经网络压缩算法研究及FPGA设计验证
这是一篇关于卷积神经网络,网络剪枝,网络量化,FPGA,硬件加速器的论文, 主要内容为近年来,随着深度学习的研究不断发展,以卷积神经网络(CNN)为代表的网络模型已经在自然语言、自动驾驶和计算机视觉等领域内取得了巨大的成功,但这些成功依赖于巨大的参数量和运算量,造成了诸多实际应用很难在特定场景落地。这就带来两点挑战,第一,在不显著降低模型精度的情况下,能够大幅度减少模型的运算量和参数量;第二,在资源受限的硬件平台上,对模型进行加速并提升其性能。在过去的一段时间里,人们探索过众多关于模型压缩和加速相关的问题,然而大部分是对压缩或者加速单方面的研究。针对以上问题,本文着眼于卷积神经网络模型压缩和硬件加速问题展开了研究,主要工作内容如下:1.首先本文研究并实现一种通道独立阈值剪枝算法,将网络BN层的缩放系数作为特征图通道重要性的评估指标,测试每个网络层对剪枝的敏感度,根据敏感度曲线,每个网络层设置独立的剪枝阈值,并裁剪掉对应的卷积核及其连接。本算法在VGG-16和Mobile Net网络上进行了相关的实验,在模型准确率分别下降了0.24%和0.6%的情况下,对VGG网络参数量降低了95.52%,FLOPs降低了59.55%,Mobile Net网络的参数量降低了83.83%,FLOPs降低了86.33%。2.针对将模型实际部署到硬件上的量化方案,普遍使用的是后训练量化(Post Training Quantization,PTQ)算法,虽然操作比较友好便捷,然而却有着不小的精度损失。本文设计了一种基于QIO(Integer-Arithmetic-Only)的量化方法,在训练时插入伪随机量化节点,推理时使用整型计算,能够在软件训练过程中就能模拟实际部署的误差,实验结果表明准确率误差不超过1%。3.最后基于FPGA对上述压缩后的CNN加速器进行设计和验证,通过设计特定的阵列来处理大量的卷积运算,利用循环交换增加数据复用从而优化数据运算,在数据缓存过程中,使用读写并行的方式进行加速,同时采用有限状态机和流水线的方法来控制在FPGA上的执行流程。然后使用Intel的FPGA器件结合相应的EDA工具实现加速器的代码设计与综合,搭建测试平台对加速器进行仿真验证。实验结果表明,本文的FPGA加速器的识别精度与软件上量化后模型的识别精度误差为0.61%,其性能大约为77.15GOPS,能效比为7.17GOPS/W,与传统硬件加速器和其他文献中设计的FPGA加速器相比,本文针对压缩后的卷积神经网络而设计的FPGA加速器取得了较好的加速效果。
DenseNet模型在工件表面粗糙度视觉检测中的改进研究及应用
这是一篇关于粗糙度检测,卷积神经网络,注意力机制,缩放系数,网络剪枝的论文, 主要内容为在工厂生产制造过程中,使用机器视觉算法检测工件表面粗糙度可以克服人为检测效率低的不足,提高检测准确率,节约工厂人力资源。针对铣削工件表面粗糙度的检测问题,本文提出一种基于卷积神经网络的工件表面粗糙度检测方法,开展如下几个方面的研究:1、工件表面粗糙度图像采集和粗糙度图像实验数据集构建。选择铣削工件粗糙度标准样块作为图像采集的对象,利用实验室CCD相机获取铣削工件四类粗糙度的表面图像。对实验采集到的粗糙度原始图像进行裁剪操作,解决图像数量太少和尺寸太大的问题。再对裁剪后的粗糙度图像进行灰度变换,将彩色的粗糙度图像变换为灰度的粗糙度图像,使图像的占用量更小,有利于实现网络模型的高效训练。将预处理后的工件表面粗糙度图像划分为70%的训练集和30%的测试集,作为Dense Net网络模型的实验数据集。2、基于DenseNet模型的工件表面粗糙度检测。采用DenseNet121网络模型作为检测工件表面粗糙度的基础模型。构建DenseNet121网络模型时,选择线性整流函数和批归一化函数作为模型的激活函数和优化函数。在网络模型的训练阶段,输入粗糙度图像训练集对模型进行训练。模型结束训练后,输入粗糙度图像测试集到Dense Net121网络模型中,用于测试模型在粗糙度图像数据集上的检测性能。3、基于改进DenseNet模型的工件表面粗糙度检测。针对原始DenseNet网络模型冗余参数多、训练时间长的问题,结合卷积层滤波器注意力机制和批归一化层缩放系数对网络模型进行剪枝。根据提出的联合剪枝方法裁剪网络中冗余参数对应的特征通道,可以减少Dense Net网络模型训练的时间,有利于模型的快速训练。在原始Dense Net网络模型的密集连接模块内引入卷积层滤波器注意力机制和批归一化层缩放系数,根据卷积层注意力机制数值和缩放系数的大小判定网络模型特征通道的重要性,实现网络模型的剪枝。利用粗糙度图像实验数据集中的训练集对剪枝后的网络模型进行训练,并利用训练好的改进Dense Net网络模型实现工件表面粗糙度的检测。理论分析和实验结果表明:本文所提出的改进DenseNet网络模型在工件表面粗糙度图像实验数据集上的检测取得了良好的效果,能够在一定程度上缩短模型的检测时间并提高检测准确率。
基于AI的终端高性能业务识别方法研究与实现
这是一篇关于终端,业务识别,深度包检测,深度学习,知识蒸馏,网络剪枝的论文, 主要内容为随着移动网络的普及,AR/VR、智慧城市、工业互联网等多场景应用逐步走进人们的生活,接入网络的终端设备数量爆发式增长。网络中海量数据的出现增加了终端业务识别的难度,对业务识别算法的识别速度及准确度提出了更高的要求。传统的业务识别方法,如:基于端口的流量识别、深度包检测和流量特征统计等,无法准确高效地识别多样化的业务流量。鉴于深度学习的固有优势,越来越多的研究致力于通过神经网络对业务种类进行识别,但是神经网络模型通常需要大量的存储空间,并耗费过多的计算资源。现实环境中设备的存储和计算资源是有限的,导致神经网络的应用仍然存在一定的局限性。针对上述问题,本文深入研究了基于人工智能的终端业务模型高性能算法。。本文主要进行了以下三方面的研究。(1)针对终端业务流量中部分应用采取流量加密进行通信的情况,提出了一种基于DPI和深度学习相结合的业务流量识别算法。首先对于抓取的数据集进行数据预处理,提取能够代表各类型业务的特殊字段、统计特征或语义信息等,并根据这些信息建立相应的特征匹配规则用于后续的检测匹配。对于无法通过特征匹配的业务流量,则将其输入到预训练的CNN模型中进行业务流量识别。仿真结果表明,与传统单一算法相比本文所提出的算法能快速并且准确的识别加密的网络业务流量类型,准确率提升1.12个百分点,在11分类的业务识别任务上准确率达到96.12%。与传统两阶段算法相比,识别效率提升了近18个百分点。(2)针对大规模神经网络中存在大量参数冗余导致网络业务流量识别模型难以在资源受限的终端设备进行部署的问题,提出了基于知识蒸馏和网络剪枝的轻量化业务识别模型算法。具体地,首先使用基于泰勒展开的剪枝方法对小规模网络的参数进行重要性排序并删减部分参数,压缩模型参数、降低运算量和复杂度。然后,使用知识蒸馏将大型网络Res Net50的知识迁移至小型网络,让小型网络通过损失函数拟合大型神经网络输出的软标签信息,完成大型神经网络的知识迁移。实验结果表明,该方法可以压缩小型网络的模型大小,并提升识别的准确率。与原始小型网络相比,模型准确率提升了2.24个百分比,达到97.24%。模型参数量压缩了81.9%,浮点运算次数压缩了92.1%,更加适合部署在资源受限的设备中。(3)通过实验室环境的搭建成功实现了高性能业务识别系统,并自动化了从数据包抓取到业务识别的流程。该系统能够准确辨别不同类型的业务流量,有效管控用户行为。同时,该系统还能够实时监控和展示终端用户网络行为,从而提升网络安全和保护数据隐私。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码港湾 ,原文地址:https://m.bishedaima.com/lunwen/54439.html