分享7篇关于多尺度信息的计算机专业论文

今天分享的是关于多尺度信息的7篇计算机毕业论文范文, 如果你的论文涉及到多尺度信息等主题,本文能够帮助到你 基于深度学习的图像复原算法研究 这是一篇关于深度学习,图像复原

今天分享的是关于多尺度信息的7篇计算机毕业论文范文, 如果你的论文涉及到多尺度信息等主题,本文能够帮助到你

基于深度学习的图像复原算法研究

这是一篇关于深度学习,图像复原,模糊图像复原,注意力机制,可变形卷积,多尺度信息的论文, 主要内容为图像复原技术具有广泛的应用前景和重要的研究意义。随着深度学习在计算机视觉领域的蓬勃发展,基于深度学习的图像复原技术逐渐成为研究的热点。模糊图像复原作为图像复原技术的重要分支,也同样备受关注。现有的基于深度学习的模糊复原方案主要存在两个方向上的分支:运动模糊复原和散焦模糊复原。前者的端到端深度网络复原方案已较为成熟,但仍然存在全局联系不紧密、感受野不够大等问题。后者的研究多集中于散焦区域检测和散焦图估计,直接生成复原图像的算法研究较少。本文分析了现有深度学习领域运动模糊和散焦模糊复原算法存在的问题,以及算法中常见的网络结构,针对性地对两种不同的模糊形式提出了深度学习基础上的算法优化,对比现有算法,在定性和定量指标上都有所提升。同时本文设计并实现了应对两种模糊形式的轻量模糊处理系统,对深度图像复原网络的落地应用提供了一种可尝试的形式。本文工作主要包含以下三个方面:(1)提出了一种基于自注意力机制和可变形卷积的运动模糊图像复原算法。该算法在深度金字塔网络DMPHN的基础上,通过添加自注意力机制、可变形卷积以及感知损失来进行优化,并使用堆叠结构来增强网络的性能。首先,通过在DMPHN网络的第三层添加自注意力模块,使网络可以获取更多的全局信息,联合处理局部特征和全局特征之间的关联性。其次,使用可变形卷积替代第三层解码器的中的普通卷积,使算法更加适应运动模糊核的动态特性,扩大感受野范围。网络训练的过程中,本文使用感知损失和均方损失的组合,在高级特征和低级特征两方面都对模型进行约束。最后,本文使用堆叠结构进一步增强网络的性能。通过GoPro数据集上的实验结果可以证明,本文提出的算法在定量指标和视觉效果上都达到了更好的效果。与现有的算法对比,本文算法在PSNR指标上有0.4dB的提升。(2)提出了一种基于多尺度信息的散焦模糊复原算法。算法在深度神经网络DPNet的基础上,使用选择性感受野模块、残差通道注意力以及边缘损失来优化性能。首先,本文通过选择性感受野模块进行高效简洁的多尺度信息融合,使网络可以适应模糊区域的尺度敏感性。接着本文在网络的瓶颈部分通过残差通道注意力模块提取通道之间的关联性,增强有效通道、抑制无效通道。最后,在训练过程中,本文采用边缘损失和均方损失结合的方式,增强模型的边缘细节。在DP数据集上的结果表明,本文提出的算法比传统的方案和现有的部分深度方案拥有更好的效果。相较于当前的算法,本文的算法在PSNR指标上有0.44dB的提升。(3)设计并实现了一个模糊图像处理系统。该系统采用了 B/S架构,旨在通过网页端为用户提供深度模型支持的模糊图像复原服务。系统的客户端为用户提供了展示界面和上传接口,包括基于前端语法的网页界面模块;系统的服务端负责接收图像并调用深度模型处理,包括后台请求处理模块和深度学习调用模块。本系统具有良好的拓展性能,为深度图像复原技术的落地提供了一种可尝试方案。

基于U-Net网络的医疗图像分割研究

这是一篇关于深度学习,图像分割,编解码结构,U-Net,多尺度信息的论文, 主要内容为深度学习技术在逐步的延伸,优秀的网络模型频繁的出现在处理图像的问题上。迅速加快了智慧医疗前进的步伐,对医生诊疗病症整个阶段提供了很大的帮助。但是,存在与医学图像分割技术密切相关的一个问题,就是无法获得大量高质量的标记图像来应对训练,而且医学影像中病灶之间不具备形状大小以及纹理上的共同点。这就需要分割病灶的网络能够逐层的提取细节特征,来提升分割的精度。基于编解码器的方法,是解决医学图像分割任务的流行策略。但是大多类网络比较浅,而且特征表达能力有限,不能在具有复杂性的医学图像中分割出精确的掩膜。基于上述分析,本文基于编解码框架的医学图像分割算法展开研究,主要内容如下:(1)针对网络减少参数且能够逐层提取细节特征的问题,本文根据编解码结构能捕获多尺度特征的卓越性能,提出了较少参数多尺度分割模型算法。比较了残差网络(ResNet)和密集网络(DenseNet)两个网络的优势,改进出了一种高效的网络架构。与ResNet相比,额外增加了的跳连接,但使用的模型参数约只有DenseNet参数量的一半,保证了在参数量少的情况下依然可以逐层提取细节特征。将所优化的方法在公共皮肤病变数据集和局部脑MRI数据集上进行了评估,与具有同一编解码网络结构中的方法相比,改进的方法实现了更高的分割精度0.8999,此外模型参数数量少于其他模型。(2)针对在具有复杂性的医学图像中很难分割出精确掩膜的问题,本文为了提高UNet在各种分割任务上的性能,提出了一种U-Net变体,它是两个U-Net网络结构叠加在一起的模型。使用一个预先从ImageNet训练过的VGG-13作为第一个U-Net编码器,VGG属于轻量级模型且类似于U-Net的体系结构,容易与U-Net连接,允许深层次网络更好的输出。为了更有效地捕获语义信息,我们在底部添加了另一个U-Net。通过SE连接VGG与级联U-Net的所有解码器部分,保证了无损失的细节和全局特征信息,提供更大的感受野和多尺度信息。为了证明优化网络结构的泛化能力,通过多个实验进行验证对比,其良好的结果0.8459表明,级联U-Net网络算法具有有效性。

基于纹理特征的中药材粉末显微图像识别研究

这是一篇关于药材识别,特征提取,深度学习,多尺度信息,纹理提取,特征增强的论文, 主要内容为中药材粉末显微图像识别方法是解决中药材掺假、把控药材品质的关键性技术,针对该技术开展深度研究对于科研和应用都具有十分深远的意义。传统显微图像识别方法对于中药材粉末这种复杂背景、大数据量、多类别问题处理精度和速度不能达到应用要求。而本文利用深度学习框架具有的强大自学习能力对特征进行针对性提取,通过模型部署实现了一种实用性强、低成本的显微图像识别平台。本文的主要工作与创新性如下:(1)完成了基于药材学和图像学交叉下的20种显微特征检测和150种中药材分类工作。为了消除不同倍数下显微镜采集差别,采用双线性插值法放大,实现尺度统一并还原图像特征细节。为了解决由于图像采集过程中导致的数据差异性,采用图像锐化、几何增强、随机对比度和噪声扰动等图像预处理方式,增强并统一图像的特征、位置、颜色等有用信息,在丰富数据集的同时提升数据的泛化性。(2)提出了一种基于特征增强和多尺度的中药材显微图像检测算法。首先在YOLO v5中原C3位置和SPP后加入FEM特征增强模块,提高主干网络的特征提取能力、减少网络在生成特征图过程中的信息丢失问题。其次利用BIPFN对于原YOLO v5中PANet部分进行改进,实现多尺度融合以充分利用小目标特征。经过实验证明,改进后的YOLO v5网络对小目标、重叠目标有较强的识别框取能力。最终改进后的网络模型在实验中m AP相较于原网络上升2.0%。(3)提出了一种基于纹理特征提取改进轻量化网络的中药材粉末显微图像分类算法。针对Mobile Net V3分类网络添加了一个类Inception结构,使之能充分获得中药材粉末显微图像的纹理信息;同时在类Inception结构内部引入空洞卷积扩大感受野,在保持特征图尺寸大小不变的同时让所有卷积的结果都包含更大范围的信息。最后,将改进的注意力机制模块加入到网络中,显著抑制背景图中的噪声纹理。结果证明,加入的类Inception结构和改进的注意力机制模块参数量个数仅为479万个,准确率提升了5.1%,达到了92.82%。在保证参数量的前提下,有效提升了准确率。为了更好地进行推广和应用,本课题基于Android手机端的特点,对上述YOLO v5和Mobile Net V3网络进行轻量化研究,在提高识别速度的同时,尽可能保持了网络的识别精度。并将训练好的网络模型同时部署到Android手机端和PC端以实现多场景应用。该系统主要划分为三个主要功能:第一个功能是检测识别,用于对选取的中药材粉末显微图片进行识别检测,并在界面中将类别与特征信息显示出来;第二个功能是信息查询,用于查看所存150种中药材的性状、基源和药效等基础信息;第三个功能是历史查询,用于查看识别与检测记录以便用户后期追溯操作历史。总体上,本文将深度学习与中药材粉末显微图像识别问题进行结合,解决传统方法所存在的技术难题,形成一种普适性的鉴别方法。

基于深度学习的高分辨率遥感影像建筑物提取研究

这是一篇关于建筑物提取,深度学习,多尺度信息,上下文信息的论文, 主要内容为建筑物是在城市发展中不可或缺的关键因素,是三维建模、城市规划、数字化城市、土地资源管理等领域重点关注的对象。对于这些领域来说,建筑物信息提取的精确度和高效率具有重要的理论和实践意义。由于高分辨率遥感影像的信息冗余度高且地物特征复杂多样,如何设计出更好的建筑物自动提取算法成了极具挑战且广受关注的研究方向。深度学习方法在建筑物提取研究领域表现出了相当卓越的性能,然而现有的深度学习方法鉴于建筑物外观形状不规则且差异性较大的特性,难以提取出大规模分布的完整建筑物。同时,由于高空成像容易产生复杂的遮挡、阴影等问题,也极易导致在提取时丢失小型建筑物的细节信息。针对上述问题,本文从多尺度信息和全局上下文信息两方面出发,以提升建筑物提取精度为目的,对现有的网络模型进行了优化,并通过Massachusetts遥感图像和WHU图像数据这两个数据集开展实验,进行验证和分析。本文的主要研究内容和成果如下:(1)基于高分遥感影像多尺度信息提出了一种新的建筑物提取方法。首先,在U-Net网络的特征提取部分增加空间金字塔模块以获取不同尺度特征图,然后选择使用SENet模块,在通道维度上增加注意力机制,提高网络模型表示特征的能力,通过跳跃连接将特征信息传递给解码器。本文改进后的网络结构在WHU数据集上的准确率、F1-score以及Io U这三个指标,分别达到了98.61%,90.33%和95.48%,在Massachusetts数据集上,则是95.33%,72.05%,86.77%,均位于参与比较模型的第一位,验证了该方法的有效性,实现了遥感影像多尺度信息的充分融合和建筑物提取精度的提升。(2)提出了一种基于高分遥感影像上下文信息的建筑物提取方法。由于卷积神经网络通过反复的卷积和池化操作会失去大量的局部信息,本文基于此思路提出了一个新的建筑物提取网络,在U-Net网络中插入非局部模块引入全局信息提高模型抓取长距离依赖的能力,同时使用残差网络模块充当特征提取器,保证网络充分获取像素上下文信息。实验结果表明,该方法在WHU数据集上的准确率、F1-score以及Io U分别达到了98.61%,90.33%和95.48%,而在Massachusetts数据集上则有97.5%,67.35%,89.24%,相比于未经过改造的UNet网络,在分辨率高、标注明确的WHU数据集上也分别能有1.06%,1.44%,2.31%的精度提高,而在分辨率较低的Massachusetts数据集上,则是分别最少提高了3.7%,2.07%,3.63%,充分说明改进后的网络模型增强了高分辨率遥感影像上下文信息获取能力,提升了建筑物提取的精度。图[28]表[6]参[79]

基于U-Net网络的医疗图像分割研究

这是一篇关于深度学习,图像分割,编解码结构,U-Net,多尺度信息的论文, 主要内容为深度学习技术在逐步的延伸,优秀的网络模型频繁的出现在处理图像的问题上。迅速加快了智慧医疗前进的步伐,对医生诊疗病症整个阶段提供了很大的帮助。但是,存在与医学图像分割技术密切相关的一个问题,就是无法获得大量高质量的标记图像来应对训练,而且医学影像中病灶之间不具备形状大小以及纹理上的共同点。这就需要分割病灶的网络能够逐层的提取细节特征,来提升分割的精度。基于编解码器的方法,是解决医学图像分割任务的流行策略。但是大多类网络比较浅,而且特征表达能力有限,不能在具有复杂性的医学图像中分割出精确的掩膜。基于上述分析,本文基于编解码框架的医学图像分割算法展开研究,主要内容如下:(1)针对网络减少参数且能够逐层提取细节特征的问题,本文根据编解码结构能捕获多尺度特征的卓越性能,提出了较少参数多尺度分割模型算法。比较了残差网络(ResNet)和密集网络(DenseNet)两个网络的优势,改进出了一种高效的网络架构。与ResNet相比,额外增加了的跳连接,但使用的模型参数约只有DenseNet参数量的一半,保证了在参数量少的情况下依然可以逐层提取细节特征。将所优化的方法在公共皮肤病变数据集和局部脑MRI数据集上进行了评估,与具有同一编解码网络结构中的方法相比,改进的方法实现了更高的分割精度0.8999,此外模型参数数量少于其他模型。(2)针对在具有复杂性的医学图像中很难分割出精确掩膜的问题,本文为了提高UNet在各种分割任务上的性能,提出了一种U-Net变体,它是两个U-Net网络结构叠加在一起的模型。使用一个预先从ImageNet训练过的VGG-13作为第一个U-Net编码器,VGG属于轻量级模型且类似于U-Net的体系结构,容易与U-Net连接,允许深层次网络更好的输出。为了更有效地捕获语义信息,我们在底部添加了另一个U-Net。通过SE连接VGG与级联U-Net的所有解码器部分,保证了无损失的细节和全局特征信息,提供更大的感受野和多尺度信息。为了证明优化网络结构的泛化能力,通过多个实验进行验证对比,其良好的结果0.8459表明,级联U-Net网络算法具有有效性。

基于纹理特征的中药材粉末显微图像识别研究

这是一篇关于药材识别,特征提取,深度学习,多尺度信息,纹理提取,特征增强的论文, 主要内容为中药材粉末显微图像识别方法是解决中药材掺假、把控药材品质的关键性技术,针对该技术开展深度研究对于科研和应用都具有十分深远的意义。传统显微图像识别方法对于中药材粉末这种复杂背景、大数据量、多类别问题处理精度和速度不能达到应用要求。而本文利用深度学习框架具有的强大自学习能力对特征进行针对性提取,通过模型部署实现了一种实用性强、低成本的显微图像识别平台。本文的主要工作与创新性如下:(1)完成了基于药材学和图像学交叉下的20种显微特征检测和150种中药材分类工作。为了消除不同倍数下显微镜采集差别,采用双线性插值法放大,实现尺度统一并还原图像特征细节。为了解决由于图像采集过程中导致的数据差异性,采用图像锐化、几何增强、随机对比度和噪声扰动等图像预处理方式,增强并统一图像的特征、位置、颜色等有用信息,在丰富数据集的同时提升数据的泛化性。(2)提出了一种基于特征增强和多尺度的中药材显微图像检测算法。首先在YOLO v5中原C3位置和SPP后加入FEM特征增强模块,提高主干网络的特征提取能力、减少网络在生成特征图过程中的信息丢失问题。其次利用BIPFN对于原YOLO v5中PANet部分进行改进,实现多尺度融合以充分利用小目标特征。经过实验证明,改进后的YOLO v5网络对小目标、重叠目标有较强的识别框取能力。最终改进后的网络模型在实验中m AP相较于原网络上升2.0%。(3)提出了一种基于纹理特征提取改进轻量化网络的中药材粉末显微图像分类算法。针对Mobile Net V3分类网络添加了一个类Inception结构,使之能充分获得中药材粉末显微图像的纹理信息;同时在类Inception结构内部引入空洞卷积扩大感受野,在保持特征图尺寸大小不变的同时让所有卷积的结果都包含更大范围的信息。最后,将改进的注意力机制模块加入到网络中,显著抑制背景图中的噪声纹理。结果证明,加入的类Inception结构和改进的注意力机制模块参数量个数仅为479万个,准确率提升了5.1%,达到了92.82%。在保证参数量的前提下,有效提升了准确率。为了更好地进行推广和应用,本课题基于Android手机端的特点,对上述YOLO v5和Mobile Net V3网络进行轻量化研究,在提高识别速度的同时,尽可能保持了网络的识别精度。并将训练好的网络模型同时部署到Android手机端和PC端以实现多场景应用。该系统主要划分为三个主要功能:第一个功能是检测识别,用于对选取的中药材粉末显微图片进行识别检测,并在界面中将类别与特征信息显示出来;第二个功能是信息查询,用于查看所存150种中药材的性状、基源和药效等基础信息;第三个功能是历史查询,用于查看识别与检测记录以便用户后期追溯操作历史。总体上,本文将深度学习与中药材粉末显微图像识别问题进行结合,解决传统方法所存在的技术难题,形成一种普适性的鉴别方法。

基于深度学习的图像去模糊方法研究

这是一篇关于深度学习,图像去模糊,注意力机制,残差网络,多尺度信息,空洞卷积的论文, 主要内容为图像模糊是图像退化中的一种常见形式,可能发生在任何需要成像设备的应用领域,其中散焦模糊是由拍摄物体在数码相机焦平面外引起的。由于相机景深有限,在拍摄场景具有显著深度变化的情况下,散焦模糊不可避免。散焦图像中不同区域的模糊程度可能不同,使得从模糊图像中获取清晰图像成为很具挑战性的任务。双像素技术通过使用两个独立的光电二极管,捕捉到更多的光学信息,帮助光学器件实现自动对焦,而其采集到的左右子视图中隐含的差异信息,近年来也受到计算机视觉中深度估计和图像去模糊等任务的关注。为了解决单幅散焦图像复原问题,本文以U-Net[1]为基础架构,对编码层、瓶颈层和解码层均进行改进,提出了SDFRNet。首先,针对散焦图像中模糊区域与清晰区域呈现空域变化的特点,本文设计了残差空间注意力模块作为网络基本块;其次,为了避免传统池化下采样和反卷积上采样导致的特征图信息丢失问题,本文利用离散小波变换的无损可逆性,提出了基于离散小波变换的下采样以及基于逆小波变换的上采样;然后,由于在U-Net[1]架构中编码层将输入特征图提升到高维,为了能更好地利用高维特征图信息,本文将多尺度局部卷积引入瓶颈层;最后,与DPDNet[2]针对单幅散焦图像输入的版本相比,SDFRNet在参数量减少67%的同时,在DPDD[2]测试集的室内场景下,图像质量评价指标PSNR、SSIM、MAE和LPIPS分别提升了1.61d B、4.66%、16.12%和13.39%,各项性能指标得到显著提升。为了解决双像素散焦图像对的复原问题,本文将双像素技术中采集到的左右子图像对作为网络输入,并在SDFRNet基础上进行针对性的改进,提出了DPDFRNet。由于左右子图像在模糊区域存在相关性复杂的差异,而模糊区域是空域变化的,且不同程度模糊的模糊范围不同,所以本文首先从多尺度角度对残差空间注意力模块进行了改进,并引入了残差嵌套结构,让网络能从多级残差的多尺度信息里学习到多层级范围的空域变化特征信息;其次,本文在特征转换阶段引入了空洞卷积,无损增大感受野,增加网络对更大区域特征的感知程度;最后,与DPDNet[2]针对双像素图像对输入的版本相比,DPDFRNet在参数量减少40.73%的同时,在DPDD[2]测试集的室内场景下,图像质量评价指标PSNR、SSIM和MAE上分别提升了1.29d B、2.24%和17.24%,表现出了明显的优势。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码驿站 ,原文地址:https://m.bishedaima.com/lunwen/54219.html

相关推荐

发表回复

登录后才能评论