6篇关于多尺度融合的计算机毕业论文

今天分享的是关于多尺度融合的6篇计算机毕业论文范文, 如果你的论文涉及到多尺度融合等主题,本文能够帮助到你 基于多尺度级联沙漏网络的立体匹配算法研究 这是一篇关于立体匹配

今天分享的是关于多尺度融合的6篇计算机毕业论文范文, 如果你的论文涉及到多尺度融合等主题,本文能够帮助到你

基于多尺度级联沙漏网络的立体匹配算法研究

这是一篇关于立体匹配,级联预测,多尺度融合,沙漏网络的论文, 主要内容为双目立体视觉模拟人眼观察和处理景深的过程,以双目摄像机取代双眼来获取图像数据,以计算机代替神经中枢处理获取的外界信息,是一种以立体匹配任务为核心的非接触式的测量方法。立体匹配通过对双目图像匹配像素点来计算视差,以低成本和易部署的优势获取深度信息,逐渐应用于机器人导航和自动驾驶领域的环境感知模块。目前端到端的立体匹配算法在纹理丰富的区域显著提升了精度,但重复纹理和细长结构区域极易误匹配。此外,日益复杂的网络结构、高计算复杂度致使模型难以部署到实际应用。本文围绕高效精准的立体匹配网络进一步研究,主要工作如下:(1)高分辨率图像的多阶段立体匹配中,针对初始阶段累积视差误差并持续传递,导致局部优化范围未覆盖视差标签值的问题,本文融合多尺度的匹配代价体,利用全局和局部特征的匹配关联性,以更准确的初始视差引导后续匹配。本文提出多信息匹配代价体来描述特征匹配的相似度,构建基于多尺度匹配代价体融合的沙漏代价聚合模块,在低分辨率下生成初始视差图,逐步细化生成高精度的高分辨率视差图。Scene Flow测试集的端点误差(End-point-error,EPE)降低到0.83,KITTI测试集的定性结果表明,引入多尺度匹配代价体融合模块后,初始阶段下道路标志和护栏区域的细节信息完整性更高,最终生成轮廓清晰、细节结构更完整的高分辨率视差图,提高了模型在重复纹理区域的鲁棒性。(2)针对立体匹配模型复杂度高且可移植性差的问题,提出一个自适应残差范围模块对固定残差范围进行快速剪枝,以精简的调整范围优化视差,设计一个基于Mobile Net V2模块的轻量级高效立体匹配网络。利用各候选视差的概率分布信息来度量每个像素立体匹配的不确定度,对后续待匹配的残差范围进行动态调整,利用沙漏网络对高可能性的候选视差进行代价聚合,避免无效匹配点的影响,实现更加高效精准的匹配过程。在网络中采用基于Mobile Net V2模块的特征提取器和代价聚合模块,降低了模型参数的冗余度。Scene Flow测试集的实验结果表明,与基于标准卷积的本文算法相比,在EPE误差仅上升0.04的前提下,模型计算量显著下降,参数量降低了1.83MB,以0.127秒快速生成一对高分辨率(540×960)双目图像的视差图。道路场景下粗略的视差预测即可为避障等高级任务提供先验信息,而多阶段视差预测的方式可以实时获取到当前最佳的视差图。本文采用层次化的视差精调策略,获取亚像素精度的视差值更有效地满足高层次视觉任务的需求。

基于深度学习的小目标检测算法研究

这是一篇关于小目标检测,残差特征增强,对称网络,多尺度融合,自注意力的论文, 主要内容为随着深度学习的发展,目标检测算法的性能得到了很大提升,是智能安防、自动驾驶、智慧交通、医疗诊断等领域的重要支撑技术。在目标检测的实际应用中,由于角度、距离、遮挡等因素导致图像中存在许多面积占比小、像素点少的目标。这些目标的尺寸小、特征信息有限,因此检测精度较低,漏检、误检率高。为了提高小目标检测精度,本文深入分析不同场景下小目标检测难点,提出了两种小目标检测算法。本文的主要工作如下:(1)针对远距离监控场景下产生的小尺度目标漏检问题,提出基于残差特征增强与对称金字塔网络(Residual Feature Enhanced-Symmetric Pyramid Network,RFE-SPN)的小目标检测算法。该算法设计了一种新颖的特征金字塔网络REF-SPN,包含残差特征增强RFE和对称金字塔网络SPN两个模块。其中,RFE用于过滤浅层特征图的背景噪声、增强底层特征信息;SPN构建对称结构的特征金字塔网络,利用双分支结构传递信息,使每层都可以补充来自其他层的高级语义信息和底层详细信息。所提出算法在多个数据集上实验,实验结果表明该算法可以有效提高小目标检测精度,缓解小目标漏检问题。(2)针对复杂场景下由遮挡导致的小目标特征信息缺失问题,提出基于自注意力网络的小目标检测算法。该算法提出了一种基于上下文信息的自注意力机制(Context Based Self Attention,CBSA),将上下文信息挖掘和自注意力学习集成在统一的框架中,对图像非局部特征建模,有效获取全局信息。基于提出的自注意力机制设计了一种自注意力网络CBSA-Net,利用自注意力在浅层网络学习全局特征信息,加强远距离像素之间的联系,通过全局上下文信息增强小目标特征。其次,CBSA-Net重新构建网络的深层特征图,在不增加下采样次数的情况下,使深层特征图尽可能保留小目标信息,同时拥有较大感受野和强大语义信息。基于自注意力网络的小目标检测算法在两个数据集上实验,实验结果表明该算法可以有效解决由遮挡造成的小目标特征信息缺失问题,有效提高小目标检测精度。综上所述,本文针对远距离监控场景下产生的小目标漏检问题以及复杂场景下由遮挡导致的小目标信息缺失问题,提出的两种小目标检测算法,通过有效利用网络浅层小目标信息以及全局信息,提高了小目标检测精度。

基于深度学习的肺部CT辅助检查系统的设计与实现

这是一篇关于深度学习,注意力机制,多尺度融合,肺结节检测的论文, 主要内容为肺部疾病严重影响人类身体健康和生命安全,尤其是肺癌,已经成为威胁人类身体健康和生命安全的头号杀手。临床经验表明,如果肺癌在最早期阶段能够被及时检测并得到有效治疗,那么患者存活率将得到大幅度提升。肺癌早期形态主要表现为肺结节,检测肺结节形态及变化是筛查、诊断和治疗肺癌最为关键的一步。计算机断层扫描技术作为传统医学重要检测手段之一,能够多方位呈现患者肺部病灶的具体位置、非正常形态、繁杂纹理变化等诸多特征。但是断层扫描技术产生的庞大CT影像数量,极大加重医生工作负担,因人为因素导致的误诊也越来越多,对患者肺癌的诊断以及治疗极其不利。将计算机辅助诊断系统嵌入诊断过程可有效避免医生疲劳等人为因素的影响,进而提高医学诊断的准确率。肺结节检测算法作为计算机辅助诊断系统的重要组件之一,改善和提高精度对提升肺癌患者的生存率与治愈率具有重要意义。构建在线肺结节辅助检测系统以更好预测、筛查和诊断肺癌的基本条件已经具备。一是深度学习技术快速发展,广泛应用于医学领域影像检测、识别和分类等方面。二是随着互联网的深度普及,越来越多的患者愿意选择线上问诊寻求“第二检查与治疗意见”。因此,本文以肺部医学CT影像为研究对象,针对肺癌早期筛查,探索研究提高肺结节检测准确率的深度学习算法,并在检测算法的基础上设计与开发了在线肺部CT辅助检测系统。具体研究工作如下:(1)优化设计肺结节检测算法。通过分析和研究国内外肺部结节自动检测方法,针对肺结节形状大小不一、肺部背景复杂多变以及目前肺结节检测模型对有肺壁粘连的肺结节特征提取不足等问题,本文优化了基于多尺度注意力的肺结节检测算法模型。该模型组成包括肺结节候选检测和假阳性减少两部分,改进了如下三部分内容:a)组合Res2Net部分结构,预激活操作和卷积四元组注意力机制,引入扩张卷积,优化设计3D多尺度注意力模块(VUA)。该模块首先充分提取肺结节的多尺度信息,将深浅层信息进行有效进行融合。其次,使用预激活函数用以缓解过拟合问题;b)将VUA与3D U-Net编码器—解码器结构和Faster R-CNN骨干网络结合,特征层融合过程采用卷积块替换Concat连接,用于实现候选结节检测部分;c)在3D深度卷积网络基础上,加入残差连接提取融合更多不同尺度特征,结合VUA模块通过分类完成假阳性减少部分。在LUNA16和天池竞赛数据集上进行的大量实验表明,准确率达到了95.40%左右,该检测算法可以有效提高检测灵敏度,降低假阳性结节数量,具有临床实际应用价值。(2)设计实现了基于深度学习的肺部CT辅助检测系统。遵循软件工程相关理论,采用前后端分离的方式,后端基于Web主流SSM(Spring+Spring MVC+My Batis)框架搭建,前端使用基于Element UI组件库的Vue框架,设计并实现了在线肺部CT辅助检测系统。该系统包括登录注册模块、肺部CT检查模块、肺结节辅助检测模块和管理员模块四部分。其中肺部检查模块实现医生对患者肺部情况的诊断并且提出治疗方案,肺结节辅助检测模块调用本文的深度学习CT影像检测算法帮助医生完成肺结节的检测。经测试,系统功能正常且运行稳定,达到了预期设计目标。

基于深度学习的肺部CT辅助检查系统的设计与实现

这是一篇关于深度学习,注意力机制,多尺度融合,肺结节检测的论文, 主要内容为肺部疾病严重影响人类身体健康和生命安全,尤其是肺癌,已经成为威胁人类身体健康和生命安全的头号杀手。临床经验表明,如果肺癌在最早期阶段能够被及时检测并得到有效治疗,那么患者存活率将得到大幅度提升。肺癌早期形态主要表现为肺结节,检测肺结节形态及变化是筛查、诊断和治疗肺癌最为关键的一步。计算机断层扫描技术作为传统医学重要检测手段之一,能够多方位呈现患者肺部病灶的具体位置、非正常形态、繁杂纹理变化等诸多特征。但是断层扫描技术产生的庞大CT影像数量,极大加重医生工作负担,因人为因素导致的误诊也越来越多,对患者肺癌的诊断以及治疗极其不利。将计算机辅助诊断系统嵌入诊断过程可有效避免医生疲劳等人为因素的影响,进而提高医学诊断的准确率。肺结节检测算法作为计算机辅助诊断系统的重要组件之一,改善和提高精度对提升肺癌患者的生存率与治愈率具有重要意义。构建在线肺结节辅助检测系统以更好预测、筛查和诊断肺癌的基本条件已经具备。一是深度学习技术快速发展,广泛应用于医学领域影像检测、识别和分类等方面。二是随着互联网的深度普及,越来越多的患者愿意选择线上问诊寻求“第二检查与治疗意见”。因此,本文以肺部医学CT影像为研究对象,针对肺癌早期筛查,探索研究提高肺结节检测准确率的深度学习算法,并在检测算法的基础上设计与开发了在线肺部CT辅助检测系统。具体研究工作如下:(1)优化设计肺结节检测算法。通过分析和研究国内外肺部结节自动检测方法,针对肺结节形状大小不一、肺部背景复杂多变以及目前肺结节检测模型对有肺壁粘连的肺结节特征提取不足等问题,本文优化了基于多尺度注意力的肺结节检测算法模型。该模型组成包括肺结节候选检测和假阳性减少两部分,改进了如下三部分内容:a)组合Res2Net部分结构,预激活操作和卷积四元组注意力机制,引入扩张卷积,优化设计3D多尺度注意力模块(VUA)。该模块首先充分提取肺结节的多尺度信息,将深浅层信息进行有效进行融合。其次,使用预激活函数用以缓解过拟合问题;b)将VUA与3D U-Net编码器—解码器结构和Faster R-CNN骨干网络结合,特征层融合过程采用卷积块替换Concat连接,用于实现候选结节检测部分;c)在3D深度卷积网络基础上,加入残差连接提取融合更多不同尺度特征,结合VUA模块通过分类完成假阳性减少部分。在LUNA16和天池竞赛数据集上进行的大量实验表明,准确率达到了95.40%左右,该检测算法可以有效提高检测灵敏度,降低假阳性结节数量,具有临床实际应用价值。(2)设计实现了基于深度学习的肺部CT辅助检测系统。遵循软件工程相关理论,采用前后端分离的方式,后端基于Web主流SSM(Spring+Spring MVC+My Batis)框架搭建,前端使用基于Element UI组件库的Vue框架,设计并实现了在线肺部CT辅助检测系统。该系统包括登录注册模块、肺部CT检查模块、肺结节辅助检测模块和管理员模块四部分。其中肺部检查模块实现医生对患者肺部情况的诊断并且提出治疗方案,肺结节辅助检测模块调用本文的深度学习CT影像检测算法帮助医生完成肺结节的检测。经测试,系统功能正常且运行稳定,达到了预期设计目标。

基于改进关系网络的物体可供性小样本分类方法研究

这是一篇关于物体可供性分类,小样本学习,关系网络,多尺度融合,局部匹配的论文, 主要内容为物体可供性是指物体根据自身属性与人或者机器人进行交互时所提供的功能,根据物体图像理解物体的可供性是机器人操作和使用物体的基础。基于图像的物体可供性分类指的是根据可供性对物体图像进行分类,该项研究得到了计算机视觉、机器人感知等相关领域的广泛研究和重视。现有的关于物体可供性的研究使用的数据集集中在少量的几个物体可供性类别上,但在真实环境中,会遇到训练时不存在的物体可供性类别。现有的基于深度学习的图像分类需要大量带有标签的图像进行有监督学习,当遇到新的样本较少的物体可供性类别时会出现过拟合、泛化能力差等问题,因此,将小样本学习引入到物体可供性分类任务中,让模型具有通过少量样本快速识别新的物体可供性类别的能力。与常见的图像分类任务不同,物体可供性图像具有同类别存在较大差异,不同类别存在着相似性这个特点,利用现有的小样本分类方法无法有效解决这个问题,存在着以下局限性:一是无法进行有效的特征表示,二是常用的全局匹配方式会存在其他无关信息的干扰,三是不充分度量无法有效地区分不同类别,四是目前缺少类别多样的物体可供性分类数据集,针对这些问题,本文的具体研究内容如下:(1)物体可供性分类数据集的构建。现有的物体可供性公开数据集由于存在类别有限,噪声较多等局限性,并不适用于物体可供性分类任务。因此,本课题通过确定类别列表,收集图像、筛选图像、标注图像和数据集统计与分析5个步骤,构建了一个用于物体可供性分类的Affordance-4K+数据集。(2)提出一种基于多尺度特征局部匹配关系网络的物体可供性小样本分类方法。针对关系网络中的嵌入模块提取特征表示信息不全,会忽略掉重要的细节信息和全局的匹配无法准确匹配关键信息这两个问题,提出一种基于多尺度特征局部匹配关系网络的物体可供性小样本分类方法。该方法在嵌入模块中引入多尺度融合技术,结合浅层细节信息与深层语义信息,提取更有效的特征,同时设计了一个局部匹配模块,使模型更加关注比较的两张图片中的相似区域,实现局部的匹配,减少其他无关信息的干扰。最后在三个数据集上进行了实验,在物体可供性分类数据集Affordance-4K+上的实验结果表明,该模型可以为小样本场景下的物体可供性图片实现有效分类,在mini Image Net数据集和CUB-200-2011数据集上的实验结果表明该模型对一般图像和细粒度图像的小样本分类同样有效。(3)提出一种基于双重度量关系网络的物体可供性小样本分类方法。针对单一度量无法将存在相似性的类别有效区分的问题,提出一种基于双重度量关系网络的物体可供性小样本分类方法。该方法沿用上一方法的多尺度融合特征提取器和局部匹配模块,因单一度量存在的度量不充分的问题,采用结合固定度量欧式距离和可学习的非线性神经网络度量的双重度量,并在三个数据集上进行实验,实验结果表明该方法进一步提升了物体可供性分类精度,同样提升了对一般图像和细粒度图像的小样本分类准确率,并通过消融实验验证了双重度量模块可以有效提高模型的度量能力。

基于多尺度融合的3D Attention U-Net新冠肺炎感染区域分割模型研究

这是一篇关于医学图像分割,新冠肺炎,U-Net,多尺度融合的论文, 主要内容为新型冠状病毒(COVID-19)由于极强的传播性,在世界范围内迅速蔓延,对公共卫生和人体健康造成重大影响。计算机断层扫描(Computed Tomography,CT)成像在COVID-19相关肺部病灶的检测与定位中起着关键作用,分割作为深度学习框架的一项基本而具有挑战性的任务,其中CT扫描中感染病灶的分割对于病灶定量和疾病进展审查至关重要,有助于准确诊断和随访评估。由于人工分割病变3D CT体积图像费时费力,且存在不同医护人员对病变区域的检查差异,因此在临床实践中,自动分割病变区域是非常必要的。从CT扫描中自动分割COVID-19肺炎病变具有挑战性。首先,感染病灶具有各种复杂的外观,如磨玻璃不透明(GGO)、网状、实变等。其次,肺炎病灶的大小和位置在不同的感染阶段和不同的患者之间有很大的差异。此外,病变形态不规则,边界模糊,部分病变模式如GGO与周围区域对比度较低。这些挑战不仅给病灶的自动分割带来了困难,也给获得准确的人工标注训练带来了阻碍。为此,本文提出了一种基于多尺度融合与注意力机制结合的深度学习算法,用于COVID-19肺部感染区域的自动分割。本文主要研究内容如下,提出将基于多尺度融合的3D U-Net肺部感染分割模型3D SE-Res Net用于精确地分割肺部背景、左肺、右肺、感染区域。首先,对数据集内原始图像进行灰度归一化和z-score标准化,并通过广泛的概率性数据增强,如空间、亮度和噪声等操作,实时产生独立的数据集供训练和测试使用。基于“U”型网络框架,引入门控注意力模块,抑制不重要的信息表达,强化对分割有用的信息表征;结合残差结构,利用通道注意力模块显著改善通道特征响应,加强通道间的相互依赖关系;为了弥补网络对低尺寸高纬度特征信息提取不足,使用级联特征金字塔结构,多尺度获取图像特征,并整合上下文信息。损失函数选择多分类交叉熵损失函数与处理体素不均衡Tversky损失函数相结合,监督网络训练进程。本文采用MA等人的公开数据集,该数据集包含了20张3D CT体素图像,并通过交叉验证来避免网络对小数据集训练的过拟合倾向。实验结果表明,基于多尺度融合3D U-Net感染区域分割网络在肺部图像分割中,对肺背景、左右肺、感染区域的平均Dice系数为99.76%、95.54%、77.24%,灵敏度分别为99.79%、96.28%、73.83%,特异性分别为97.82%、99.78%、99.85%。该算法在COVID-19胸部CT图像的自动分割中具有良好的性能。本研究推动了CT图像中COVID-19肺部感染的定量诊断,提供了一种有潜力的基于深度学习的分割工具。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设向导 ,原文地址:https://m.bishedaima.com/lunwen/46865.html

相关推荐

发表回复

登录后才能评论