基于3D U-Net底层特征和边缘检测的肺结节可视化研究
这是一篇关于肺结节可视化,CT图像,3D U-Net,边缘检测,腐蚀和膨胀算法的论文, 主要内容为肺癌是在全球癌症发病率最高的癌症之一。在肺癌的早期筛查中,对肺结节进行可视化有助于肺癌的精确诊断。近年来,深度学习技术已经被广泛用于肺结节检测、分割、诊断等各个任务中,并且肺结节的诊断离不开对肺结节边缘特征和形态特征的准确提取与可视化。为了解决肺结节可视化存在边缘和形态特征提取不充分的问题,本文开展了基于深度学习和边缘检测的肺结节可视化研究,并在公开的LIDC-IDRI数据集上进行验证。肺部CT图像是筛查肺部相关疾病的重要依据。利用基于深度学习的图像分割技术可以从肺部CT图像中提取肺结节的完整结构。通过分析基于深度学习技术的肺结节分割模型中各个卷积层提取的特征,发现深度学习模型的前两层卷积运算通常会提取一些图像的低级特征,例如图像的边缘、形态以及纹理特征等。由于这些低级特征有助于肺结节形态信息的提取,而且经典的边缘检测算法能够有效地提取肺结节边缘信息。为了充分发挥深度学习和经典边缘检测算子在肺结节形态和边缘特征提取方面的优势,本文提出一种融合深度学习模型底层特征和传统边缘检测算法的肺结节可视化方法。由于3D U-Net模型存在跳跃连接的信息传递方式,能够保证物体边缘的精确分割,已经广泛应用于3D肺结节分割任务中。本文利用3D U-Net底层特征信息和传统边缘检测算子开展对肺结节进行可视化分析研究。首先,应用3D U-Net深度学习网络在LIDC-IDRI数据集上对肺结节进行分割处理,得到3D U-Net前两层卷积运算的计算结果。其次,将该结果进行二值化处理,并使用腐蚀膨胀算法消除二值化图像中的非肺结节区域。然后,将肺结节二值化区域处理结果与肺结节原图像对应元素相乘,使CT图像中非肺结节部分像素置为0,从而得到只包含肺结节主体的图像O。再次,使用边缘检测算子处理肺结节原图像,得到包含肺结节边缘信息的结果图像E。最后,采用融合算法将图像O和图像E进行融合处理,最终获得肺结节可视化图像。由于肺结节可视化分析研究没有形成定量的统一评估指标,为了评估本文提出的肺结节可视化方法的有效性,设计了评分调查问卷(评分区间为[0,10])。并邀请了 26位在肺部CT图像处理领域的硕博研究生及医生填写该问卷。结果显示,融合深度学习模型底层特征和传统边缘检测算法的肺结节可视化方法能够获得8.74的平均分,证明了本研究提出的肺结节可视化方法的有效性。此外,为了更直观地显示肺结节可视化结果,采用PyQt5开发技术设计了简化版的肺结节可视化软件,有利于提高肺结节辅助诊断工作的效率。
基于级联3D U-Net的脑部小器官CT-MRI多模态自动分割方法
这是一篇关于3D U-Net,脑部小器官,自动分割,多模态的论文, 主要内容为精准可靠的危及器官分割是制定放疗计划的一个必备条件。但是,传统的手工分割非常耗时,而且准确性受医生个体经验所限,因此危及器官的自动分割逐渐受到广泛关注。视交叉、视神经等脑部软组织器官由于体积小、在CT(Computed Tomography)图像中对比度低等原因,在目前的自动分割方法中分割精度不高。因此,本硕士论文目的是研究一种分割精度高的脑部小器官多模态CT-MRI(Magnetic Resonance Image)自动分割方法。为实现该研究目的,本硕士科研项目包括以下两项任务:(1)收集配对CT-MRI数据,进行弹性配准后交付医生勾画,对配对数据进行CT去除床板及热塑面罩、重采样、MRI偏置场校正和图像强度区间统一等数据预处理,生成配对CT-MRI训练集与测试集。(2)搭建基于原始3DU-Net的定位网络,用于定位裁剪预处理后的配对CT-MRI图像,以获取较小尺寸的配对CT-MRI图像;在原始3D U-Net基础上,添加残差机制和深度监督机制,改进下采样方式得到分割网络,并以定位网络的结果作为训练集,最终得到脑部小器官的精确分割结果。本研究从安徽医科大学第一附属医院共收集60例头颈部配对CT-MRI数据,对其进行预处理得到包含45例CT-MRI数据的训练集和15例CT-MRI的数据测试集。利用级联3D U-Net网络进行训练模型,并对测试集进行测试,左右眼球、左右晶体、左右视神经和视交叉的DSC(Dice Similarity Coefficient)± SD(Standard Deviation)分别为 87.62±2.56、87.54± 3.51、74.60±7.90、79.85±3.80、80.39±7.12、77.47±9.16。视神经、晶体和视交叉的DSC通过定位裁剪得到了 5.4%~11.8%的提升,视交叉的DSC通过采用多模态数据策略比单模态(仅CT)数据策略提高了 13.8%。结果表明本硕士论文提出的多模态自动分割方法能有效提升脑部小器官的自动分割精度,以视交叉为典型的脑部小器官在采用多模态数据策略比仅采用单模态数据策略得到了更好的分割精度,多模态自动分割方法未来有望在临床应用。
基于级联3D U-Net的脑部小器官CT-MRI多模态自动分割方法
这是一篇关于3D U-Net,脑部小器官,自动分割,多模态的论文, 主要内容为精准可靠的危及器官分割是制定放疗计划的一个必备条件。但是,传统的手工分割非常耗时,而且准确性受医生个体经验所限,因此危及器官的自动分割逐渐受到广泛关注。视交叉、视神经等脑部软组织器官由于体积小、在CT(Computed Tomography)图像中对比度低等原因,在目前的自动分割方法中分割精度不高。因此,本硕士论文目的是研究一种分割精度高的脑部小器官多模态CT-MRI(Magnetic Resonance Image)自动分割方法。为实现该研究目的,本硕士科研项目包括以下两项任务:(1)收集配对CT-MRI数据,进行弹性配准后交付医生勾画,对配对数据进行CT去除床板及热塑面罩、重采样、MRI偏置场校正和图像强度区间统一等数据预处理,生成配对CT-MRI训练集与测试集。(2)搭建基于原始3DU-Net的定位网络,用于定位裁剪预处理后的配对CT-MRI图像,以获取较小尺寸的配对CT-MRI图像;在原始3D U-Net基础上,添加残差机制和深度监督机制,改进下采样方式得到分割网络,并以定位网络的结果作为训练集,最终得到脑部小器官的精确分割结果。本研究从安徽医科大学第一附属医院共收集60例头颈部配对CT-MRI数据,对其进行预处理得到包含45例CT-MRI数据的训练集和15例CT-MRI的数据测试集。利用级联3D U-Net网络进行训练模型,并对测试集进行测试,左右眼球、左右晶体、左右视神经和视交叉的DSC(Dice Similarity Coefficient)± SD(Standard Deviation)分别为 87.62±2.56、87.54± 3.51、74.60±7.90、79.85±3.80、80.39±7.12、77.47±9.16。视神经、晶体和视交叉的DSC通过定位裁剪得到了 5.4%~11.8%的提升,视交叉的DSC通过采用多模态数据策略比单模态(仅CT)数据策略提高了 13.8%。结果表明本硕士论文提出的多模态自动分割方法能有效提升脑部小器官的自动分割精度,以视交叉为典型的脑部小器官在采用多模态数据策略比仅采用单模态数据策略得到了更好的分割精度,多模态自动分割方法未来有望在临床应用。
基于深度学习的肺部CT图像分割算法研究
这是一篇关于肺结点,残差模块,3D U-Net,注意力机制,深度监督,多尺度卷积,U-Net的论文, 主要内容为肺癌是当今世界死亡率最高的癌症,如果能够在肺癌发生的早期发现并及时治疗,可以明显降低肺癌死亡率。利用图像分割技术对患者肺部CT图像中发生病变的区域进行精准分割,可以提高肺癌早期诊断率。传统图像分割方法分割精度低且需要大量人工操作。近年来分割精度更高且特征表征能力更强的深度神经网络在图像分割领域得到了广泛应用。因此,本文以U-Net和3D U-Net网络这两种深度学习方法为基础展开研究。主要贡献如下:(1)基于深度残差网络和注意力机制的U-Net图像分割算法研究针对U-Net中的传统CNN网络随着深度增加出现网络性能退化的问题,本文探索了一种特征提取能力更强的深度学习方法;针对肺结点大小形态各异且容易受到周围组织干扰的问题,设计了两种不同尺度的卷积模块;针对U-Net中跳跃连接忽略了通道间关系的问题,引入了注意力机制。首先对特征提取网络进行改进,将表征能力更强的深度残差网络作为主干网络。其次参考Inception设计了大核卷积模块,并引入小核卷积模块,提取全局语义信息和局部几何信息。最后使用注意力模块,加强特征通道之间的联系,使特征表达更丰富。在LUNA16数据集上进行实验,最终实验结果表明本文模型相较于基础U-Net网络精确度提高了3.86%,DICE提升了5.53%。(2)基于注意力机制和深度监督的3D U-Net图像分割算法研究针对2D U-Net模型中没有考虑CT图像三维空间特性的问题,本文探索了一种分割精度更高的3D U-Net模型;针对二维注意力模块无法适用于高维数据的问题,改进了3D U-Net的注意力模块;针对模型对于不同形态和大小的特征鲁棒性低的问题,利用深度监督方法进行改进。首先将U-Net模型中的二维卷积核替换为三维卷积核以适应不经过切片处理的完整CT图像。其次将二维注意力模块扩展到三维,使模型在空间和通道维度获得了整个全局范围内特征之间的依赖。最后利用深度监督方法,防止浅层特征丢失,同时避免梯度消失等问题。实验结果表明,3D U-Net模型比原始2D U-Net模型有着更强的分割性能,同时相较于基础3D U-Net模型,本文方法平均交并比提高了1.92%,DICE系数提高了2.59%,MPA系数提高了2.04%。(3)基于3D CNN的肺结点分类研究针对3D U-Net分割结果中出现的假阳性样本,本文设计了一种分类网络对其进行区分。将所有分割后的肺结点作为输入,使用3D CNN网络进行特征提取,最后使用全连接网络整合特征并分类。实验结果表明,通过筛选,有效降低了假阳性样本的比例,降低了发生误诊的概率。
基于3D U-Net底层特征和边缘检测的肺结节可视化研究
这是一篇关于肺结节可视化,CT图像,3D U-Net,边缘检测,腐蚀和膨胀算法的论文, 主要内容为肺癌是在全球癌症发病率最高的癌症之一。在肺癌的早期筛查中,对肺结节进行可视化有助于肺癌的精确诊断。近年来,深度学习技术已经被广泛用于肺结节检测、分割、诊断等各个任务中,并且肺结节的诊断离不开对肺结节边缘特征和形态特征的准确提取与可视化。为了解决肺结节可视化存在边缘和形态特征提取不充分的问题,本文开展了基于深度学习和边缘检测的肺结节可视化研究,并在公开的LIDC-IDRI数据集上进行验证。肺部CT图像是筛查肺部相关疾病的重要依据。利用基于深度学习的图像分割技术可以从肺部CT图像中提取肺结节的完整结构。通过分析基于深度学习技术的肺结节分割模型中各个卷积层提取的特征,发现深度学习模型的前两层卷积运算通常会提取一些图像的低级特征,例如图像的边缘、形态以及纹理特征等。由于这些低级特征有助于肺结节形态信息的提取,而且经典的边缘检测算法能够有效地提取肺结节边缘信息。为了充分发挥深度学习和经典边缘检测算子在肺结节形态和边缘特征提取方面的优势,本文提出一种融合深度学习模型底层特征和传统边缘检测算法的肺结节可视化方法。由于3D U-Net模型存在跳跃连接的信息传递方式,能够保证物体边缘的精确分割,已经广泛应用于3D肺结节分割任务中。本文利用3D U-Net底层特征信息和传统边缘检测算子开展对肺结节进行可视化分析研究。首先,应用3D U-Net深度学习网络在LIDC-IDRI数据集上对肺结节进行分割处理,得到3D U-Net前两层卷积运算的计算结果。其次,将该结果进行二值化处理,并使用腐蚀膨胀算法消除二值化图像中的非肺结节区域。然后,将肺结节二值化区域处理结果与肺结节原图像对应元素相乘,使CT图像中非肺结节部分像素置为0,从而得到只包含肺结节主体的图像O。再次,使用边缘检测算子处理肺结节原图像,得到包含肺结节边缘信息的结果图像E。最后,采用融合算法将图像O和图像E进行融合处理,最终获得肺结节可视化图像。由于肺结节可视化分析研究没有形成定量的统一评估指标,为了评估本文提出的肺结节可视化方法的有效性,设计了评分调查问卷(评分区间为[0,10])。并邀请了 26位在肺部CT图像处理领域的硕博研究生及医生填写该问卷。结果显示,融合深度学习模型底层特征和传统边缘检测算法的肺结节可视化方法能够获得8.74的平均分,证明了本研究提出的肺结节可视化方法的有效性。此外,为了更直观地显示肺结节可视化结果,采用PyQt5开发技术设计了简化版的肺结节可视化软件,有利于提高肺结节辅助诊断工作的效率。
介观尺度脑科学中的全脑图像拼接与细胞核检测
这是一篇关于自动拼接,细胞核检测,3D U-Net,高斯概率模型,概率去卷积的论文, 主要内容为大脑是高等动物体内结构最为复杂的器官,其解剖结构及内部的工作机理,一直是医学图像领域学者的研究重点之一。鼠脑图像拼接和细胞核检测更是数字病理图像分析的基本任务和先决条件,以更好地了解大脑功能或疾病的进展。本文以脑科学为背景,总结了当前领域的核心需求和图像特点,开发出一套图像的拼接工具,以及针对图像识别领域标记样本少、不精确标注等困难,提出了一个基于高斯概率模型进行概率反卷积的算法。本文的主要研究贡献如下:1)鼠脑图像拼接得到的3D鼠脑图像,可以通过日常认知,更加直观地理解鼠脑的微观特征,故在分析之前对数据进行重建是非常有必要的。在对鼠脑图像成像过程中,由于光学系统的固有误差,使得图像产生旋转、畸变等失真现象,本文首先依据相邻tiles之间的相对位置和几何关系,建立了多个数学模型,分别计算图像的体素大小之比、相对旋转角度和畸变参数等失真参数,并基于这些参数对图像进行修正操作。其次,组织透明化和光片成像得到的数据集由许多未对齐的2D切片组成,故实现鼠脑图像的自动拼接之前,本文需要先得到所有tiles的精确空间定位。计算所有tiles的精确空间定位,是通过对齐相邻图像块,计算相邻图像块重叠区域的重叠量和偏移量得到的,即遍历相邻图像块重叠区域的所有可能参数,并最小化相同特征点的均方误差平方和。在全局图像拼接时,本文将重叠区域每一点到相应图像边界的距离与重叠量的百分数作为该图像的权值,进行重叠区域相同特征点的像素融合,实现完整鼠脑图像的3D自动拼接。图像修正和拼接的质量为后续鼠脑图像中的细胞核识别提供了保证。2)完整鼠脑细胞核检测对统计各个脑区的细胞核数量、大脑的细胞分布,以及更好地理解大脑功能和疾病,提供了非常重要的依据,具有重要的研究意义和研究价值。而所面临的有监督学习样本少,以及样本精确标注难度大等问题,给本文的细胞核检测工作带来非常大的困难和挑战。基于这些困难和挑战,本文提出了基于高斯模型的概率反卷积算法,首先基于高斯概率模型描述人工对细胞核中心的标注,即像素点成为细胞核中心的概率分布,并基于此产生细胞核标注的理想概率图像。同时使用在小样本中表现良好的3D U-Net全卷积神经网络,排除噪声、PSF等浅层信息,学习原图像素点与细胞核中心的概率映射的深层概率特征,训练得到输入图像的概率图像。再基于局部最大值采用3D分水岭算法进行细胞区域分割。为验证本文所提算法及组件的有效性,本文选取局部最大值、基于规则的灰度加权距离变换(gray-weighted image distance transform,GWDT)算法、基于规则的密度峰值聚类算法作为对比算法进行比较。在测试数据的子图像块数据集上,通过本文所提算法分别与这些算法做对比,实验结果表明,本文所提算法均优于对比算法,同时对较小的滤波核表现良好。同时,为了探讨本文所提pipeline中所有组件的优势,本文做了消融实验。为了验证高斯模型的有效性和必要性,实验中用点和球模型代替高斯模型,为了验证3D U-Net网络的优势,将局部最大值和GWDT代替高斯模型和3D U-Net网络,实验结果表明,本文所提pipeline在所有实验中最优,验证了pipeline中所有组件的必要性。
基于深度学习的肝脏肿瘤CT图像分割研究
这是一篇关于深度学习,肝脏肿瘤分割,3D U-Net,多尺度特征融合,注意力机制,深度监督的论文, 主要内容为发生在肝脏部位的肿瘤病变具有较高的致死率,及早从腹部CT图像中分割出肝脏和肝脏肿瘤是辅助医生对患者进行诊疗的关键。然而,人工分割耗时长,效率低;且CT图像具有对比度低、器官组织间灰度值较为相似和肝脏肿瘤形状大小多变等特点,使得快速准确分割出肝脏和肝脏肿瘤仍是一项挑战性的任务。随着深度学习技术在计算机视觉任务中表现优异,在医学图像分割领域得到广泛研究与应用。因此,本文使用深度学习技术来实现肝脏和肝脏肿瘤的高效自动分割,主要研究内容如下:(1)腹部CT图像中肝脏区域的分割。针对CT图像中肝脏与相邻器官组织的灰度值较为相似,使得一些微小的细节特征不易被关注等问题,提出一种基于多尺度语义特征和注意力机制的肝脏分割网络(Mutil-scale Semantic Feature Attention-Net,MSFA-Net)。首先,在网络中使用空洞残差卷积(Dilated Residual Convolution,DRC)来捕获多尺度特征;其次,通过MSFA模块将特征提取层相邻的低级特征和高级特征与注意力机制相结合,来获取多尺度特征和关注重要特征;最后,在网络解码器各层通过深度监督(Deep Supervise,DS)增强特征传输。实验表明,该网络可有效关注不同尺度的关键特征,获得较为精确的分割结果。(2)腹部CT图像中肝脏肿瘤区域的分割。针对肝脏肿瘤在CT图像中占比小,结构复杂,以及与正常组织对比度较低的问题,提出一种基于级联结构和特征融合的肝脏肿瘤分割网络(Feature Fusion W-Net,FFW-Net)。首先,该网络采用级联两个3D U-Net的结构来提高信息提取能力,并使用侧输出特征融合注意(Side-output Feature Fusion Attention,SFFA)模块将不同层次的特征融合,结合注意力机制关注重要信息;然后,使用空洞空间金字塔池化注意(ASPP Attention,ASPPA)模块提取多尺度语义特征;最后,通过改进的深度监督模块(DS)将这些特征充分融合以提高模型的分割性能。实验表明,与同类型的其他方法相比,该网络获得较好的分割结果。(3)肝脏肿瘤CT图像分割系统。系统基于前两个研究内容,使用Python编程语言、B/S架构、Vue前端技术和Flask后端技术来实现,便于医生用于肝脏和肝脏肿瘤的分割预测。系统为用户提供了从患者腹部CT图像中自动分割出肝脏和肝脏肿瘤的功能,并实现了分割结果的可视化。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设导航 ,原文地址:https://m.bishedaima.com/lunwen/52552.html